

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# À propos des versions Amazon EMR
<a name="emr-release-components"></a>

Une version Amazon EMR est un ensemble d'applications open-source issues de l'écosystème big data. Chaque version comprend plusieurs applications, composants et fonctionnalités Big Data que vous sélectionnez pour installer et configurer Amazon EMR lorsque vous créez un cluster. Les applications sont empaquetées à l'aide d'un système basé sur [Apache BigTop](http://bigtop.apache.org/), un projet open source associé à l'écosystème Hadoop. Ce guide fournit des informations sur les applications incluses dans les versions Amazon EMR.

Pour plus de plus amples informations sur la prise en main et l'utilisation d'Amazon EMR, consultez la section [Guide de gestion Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/).

Lorsque vous lancez un cluster, vous pouvez choisir parmi plusieurs versions d'Amazon EMR. Vous pouvez ainsi tester et utiliser des versions d'applications qui répondent à vos exigences de compatibilité. Vous spécifiez le numéro de version avec l’*étiquette de version*. Les étiquettes de version sont sous la forme `emr-x.x.x`. Par exemple, `emr-7.12.0`.

À partir d'Amazon EMR 5.18.0, vous pouvez utiliser le référentiel d'artefacts d'Amazon EMR pour générer le code de votre tâche en fonction des versions exactes des bibliothèques et des dépendances qui sont disponibles avec des versions spécifiques d'Amazon EMR. Pour de plus amples informations, veuillez consulter [Vérification des dépendances à l'aide du référentiel d'artefacts d'Amazon EMR](emr-artifact-repository.md).

Abonnez-vous au [flux RSS des notes de mise à jour d’Amazon EMR](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/amazon-emr-release-notes.rss) pour recevoir des mises à jour lorsqu’une nouvelle version d’Amazon EMR est disponible.

Détails de la **dernière version**, tels que les versions de l’application, les notes de mise à jour, les composants et les classifications de configuration d’Amazon EMR série 7.x, 6.x et 5.x :
+ [Amazon EMR version 7.12.0](emr-7120-release.md)
+ [Amazon EMR version 6.15.0](emr-6150-release.md)
+ [Amazon EMR version 5.36.2](emr-5362-release.md)

**Note**  
Les nouvelles versions d'Amazon EMR sont mises à disposition dans différentes régions sur une période de plusieurs jours, en commençant par la première région à la date de sortie initiale. Il est possible que la dernière version ne soit pas disponible dans votre région pendant cette période.

**Notes de mise à jour** pour les dernières versions d'Amazon EMR et historique de toutes les versions :
+ [Nouveautés](emr-whatsnew.md)
+ [Archive des notes de publication Amazon EMR](emr-whatsnew-history.md)

**Historique complet des versions des applications** dans chaque version d'Amazon EMR :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)

**Détails de chaque version d'Amazon EMR** et différences entre les versions d'une même série, le cas échéant :
+ [Versions Amazon EMR 7.x](emr-release-7x.md)
+ [Versions Amazon EMR 6.x](emr-release-6x.md)
+ [Versions Amazon EMR 5.x](emr-release-5x.md)
+ [Versions Amazon EMR 4.x](emr-release-4x.md)
+ [Versions AMI 2.x et 3.x d'Amazon EMR](emr-release-3x.md)

# Support standard d'Amazon EMR
<a name="emr-standard-support"></a>

## Comprendre les versions d'Amazon EMR
<a name="emr-standard-support-understanding"></a>

La *version Amazon EMR* fournit les logiciels nécessaires pour exécuter vos applications open source sur EC2 des plateformes EKS ou sans serveur. *Une version d'Amazon EMR est composée de trois éléments : l'*environnement d'exécution*, les *moteurs principaux* et les extras.*
+ **Environnement d'exécution** : l'environnement d'exécution inclut le système d'exploitation inclus dans Amazon Machine Image (AMI) ou toute autre image de conteneur lorsque vous lancez votre cluster ou conteneur (par exemple, Amazon Linux 2023). Il inclut également les environnements d'exécution de langage tels que le JDK Amazon Corretto, ainsi que d'autres outils connexes installés par l'image.
+ **Moteurs principaux** : il s'agit notamment des principaux logiciels open source tels qu'Apache Hive et des formats de table ouverts tels qu'Apache Iceberg.
+ **Extras** — Il s'agit notamment de bibliothèques pratiques et de packages Python tels que `mariadb-connector-java` des logiciels open source tels qu'Apache Pig.

La version d'Amazon EMR que vous sélectionnez regroupe tous ces composants dans une nouvelle version d'Amazon Machine Images (AMI) ou d'images de conteneur basées sur Amazon Linux (AL). Amazon EMR gère la même version AL pour tous les nœuds d'un cluster, d'un conteneur EKS ou d'une application sans serveur. Amazon EMR vise à obtenir le dernier *environnement d'exécution* dans les 90 jours suivant leur publication par Amazon Linux, et les nouvelles versions open source de *Core Engines* dans les 90 jours suivant leur sortie en amont. Les *extras* sont publiés selon les besoins. Vous trouverez la liste des logiciels dans les notes de mise à jour de chaque version d'Amazon EMR.

## Gestion des versions des versions
<a name="emr-standard-support-versioning"></a>

Pour vous aider à comprendre l'ampleur des modifications apportées à chaque version, Amazon EMR utilise le versionnement sémantique. Le versionnement sémantique suit un format de. `<major>.<minor>.<patch>` Prenons l'exemple de la version 7.0.0.

Le premier chiffre indique la version majeure, ou **version majeure**. Les versions majeures apportent généralement des modifications, des améliorations et de nouvelles fonctionnalités substantielles à l'environnement d'exécution ou au moteur principal qui ne sont pas rétrocompatibles. Par exemple, la version majeure 7.x utilise Amazon Linux 2023 avec le JDK Amazon Corretto 17 par défaut. Par conséquent, cette version contient plusieurs modifications majeures par rapport à la version majeure 6.x, qui est fournie sur Amazon Linux 2 et avec le JDK Amazon Corretto 8 par défaut.

Le deuxième chiffre indique la version mineure, ou **version mineure**. Les versions mineures sont des versions non rétrocompatibles qui contiennent des modifications, des améliorations et des fonctionnalités incrémentielles apportées aux moteurs principaux et aux extras, ainsi que de nouvelles fonctionnalités. Par exemple, la version 6.15 utilise Apache Spark 3.4.1, alors que la version 6.11.1 est fournie avec Apache Spark 3.3.2.

Le troisième chiffre indique une version de correctif, ou une version de **correctif**. Les versions de correctif sont destinées à être des versions rétrocompatibles contenant des correctifs et des mises à jour pour *Core Engine* et les *options supplémentaires*, mais pas de nouvelles fonctionnalités ni de mises à niveau de version OSS. Par exemple, les versions 6.11.1 et 6.11.0 contiennent toutes deux la même version OSS d'Apache Spark 3.3.2. Depuis la version 6.6.x, la dernière version de correctif propose le dernier correctif *d'environnement d'exécution disponible*. *L'environnement d'exécution* n'affecte pas la publication du correctif d'Amazon EMR. Par exemple, 6.11.1 a été lancé avec la version 2.0.20240109.0 d'AL du 19 décembre 2023 au 10 janvier 2024, mais avec la version AL 2.0.20240124.0 du 11 janvier 2024. Certaines versions d'Amazon EMR on EKS vous permettent d'ajouter des balises ou des suffixes aux versions sémantiques afin de vous proposer des fonctionnalités alternatives. Par exemple, la `emr-6.15.0-latest` sortie d'Amazon EMR sur EKS lance une version compatible avec Amazon Corretto 8 JDK, tandis que la sortie d'Amazon EMR sur EKS vous permet de lancer une version compatible avec `emr-6.15.0-java17-latest` Amazon Corretto 17 JDK.

## Politique de prise en charge
<a name="emr-stadard-support-policy"></a>

**Introduction**

Amazon EMR a pour objectif de publier de nouvelles versions mineures au moins une fois tous les 90 jours et de fournir un support pour les versions mineures pendant une période de 24 mois à compter de la date de sortie. Ce support couvre *l'environnement d'exécution* et *les moteurs principaux* avec leurs dépendances associées, mais ne couvre pas les *extras* ni leurs dépendances associées. *L'environnement d'exécution* inclut également des composants de APIs plate-forme propriétaires nécessaires au démarrage, à l'arrêt et au fonctionnement des clusters et des applications. Ce calendrier de publication cohérent garantit un cycle prévisible, ce qui vous permet de planifier, de tester et de passer plus facilement à une version offrant support et sécurité.

**À quoi s'attendre avec le Support standard**

Le support standard fournit des correctifs sur les tickets de support technique pour les problèmes que vous rencontrez avec les composants *Runtime Environment* et *Core Engines* dans le cadre des configurations recommandées. Tous les correctifs sont soumis à disponibilité. [La configuration recommandée est l'utilisation d'Amazon EMR sans modification, ajout ou modification des fichiers binaires et des configurations présents dans une version d'Amazon EMR, à l'exception de ceux figurant dans la documentation Amazon EMR.](https://docs.aws.amazon.com/emr/) Amazon EMR déploie des correctifs sur le dernier correctif, la version mineure ou majeure de la version d'Amazon EMR dans les 90 jours suivant la vérification du correctif par nos soins. Amazon EMR applique automatiquement des correctifs lorsque vous lancez un nouvel EMR sur un EC2 cluster, que vous lancez un nouveau conteneur Amazon EMR sur EKS ou que vous déclenchez une nouvelle tâche EMR sans serveur. *Les composants supplémentaires sont fournis pour des raisons de commodité et Amazon EMR ne fournit **pas** de correctifs liés aux suppléments.*

**Composants**

Le support standard couvre les composants de *l'environnement d'exécution* et des *moteurs principaux*, par exemple le système d'exploitation, les environnements d'exécution des langages et les principaux logiciels open source tels qu'Apache Hive et Apache Iceberg. Vous trouverez la liste complète des composants pris en charge pour chaque version dans [À propos des versions Amazon EMR](emr-release-components.md) [Amazon Linux FAQs](https://aws.amazon.com/linux/amazon-linux-2023/faqs/).

La liste suivante décrit le support que nous fournissons pour les différents types de composants dans le cadre du support standard :
+ **Composants de l'environnement d'exécution : les** *composants de l'environnement d'exécution* recevront des correctifs sur les tickets de support technique. Les correctifs sont classés comme (a) bogues critiques, (b) problèmes critiques de corruption de données et (c) problèmes de sécurité critiques. Si vous êtes éligible, Amazon EMR rétroportera les correctifs pour *Runtime Environment* vers les anciennes versions. Pour des raisons de compatibilité opérationnelle avec les composants open source du moteur principal, certains composants de *l'environnement d'exécution* doivent conserver des versions spécifiques afin de ne pas endommager les applications des clients. Pour ces composants, Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs. Lorsque des correctifs seront disponibles en open source, nous fournirons la dernière version stable dans les 90 jours suivant leur vérification par Amazon EMR.
+ **Composants de Core Engines** : *Core Engines* fournit les dernières versions pour de nombreux projets open source, chacun contenant des centaines de bibliothèques de dépendances transitives. Bien que les communautés open source qui gèrent ces projets tentent fréquemment de résoudre les problèmes et de résoudre les vulnérabilités et expositions courantes (CVE) connues, les dernières versions peuvent toujours contenir des bogues connus et. CVEs Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du *moteur principal* dans les 90 jours suivant leur vérification par Amazon EMR. Dans certains cas, Amazon EMR peut fournir un correctif pour un CVE dans l'un des composants du *moteur principal* qui doit être résolu avant l'open source en amont. Amazon EMR vous fournit également une assistance technique et des correctifs pour les fonctionnalités ajoutées en plus de l'open source dans les configurations recommandées. Nous ne rétroportons pas les correctifs pour les composants *du moteur principal* vers d'anciennes versions de correctifs ou de versions mineures.
+ **Composants supplémentaires** : Amazon EMR ne prend **pas** en charge les composants *supplémentaires*. Les composants supplémentaires sont des projets open source fournis pour des raisons de commodité et Amazon EMR ne fournit pas de solutions aux problèmes rencontrés avec ces derniers. Toute demande d'assistance ou correction peut être traitée par le biais de la communauté open source supportant ces composants.

**Support standard : cycle de vie**

Ce qui suit décrit les étapes du cycle de vie du Support standard :
+ **Support standard** : les versions d'Amazon EMR sont éligibles au support standard 24 mois à compter de la date de sortie. Vous pouvez créer des tickets de support technique et vous attendre à des mises à jour pour les problèmes que vous rencontrez avec ces versions. 
+ **Fin du support** : une fois le support standard terminé, les versions d'Amazon EMR entrent dans la phase de fin de support (eOS) pendant 12 mois. Les versions d'eOS ne sont pas éligibles au support technique et vous ne pourrez pas créer de tickets pour les clusters, les conteneurs ou les jobs exécutés sur ces versions. Les versions d'EoS ne recevront aucun correctif, correctif ou mise à jour. Les versions d'eOS seront supprimées de la console, mais continueront d'être disponibles via l'API et AWS CLI. Vous pouvez toujours continuer à exécuter des charges de travail sur les versions d'eOS. Nous vous recommandons vivement de migrer vers la dernière version d'Amazon EMR afin de continuer à recevoir les correctifs de sécurité, de rester éligible au support technique et de créer des tickets d'assistance en cas de besoin. 
+ **Fin de vie** : après la fin de la période de Support (EoS), les versions sont considérées comme étant en fin de vie (EoL). Bien que vous puissiez continuer à exécuter des clusters EoL, Amazon EMR se réserve le droit de supprimer les versions EoL de l'API et du SDK pour des raisons de case-by-case sécurité et d'exploitation. Nous vous recommandons vivement de migrer vers la dernière version d'Amazon EMR, car les versions d'EoL peuvent être supprimées de l'API et du SDK dans des cas exceptionnels.

**Support de pont**

Amazon EMR a annoncé cette nouvelle politique de support le 25 juillet 2024. En vertu de cette politique, les versions d'Amazon EMR publiées le 24 juillet 2022 ou avant cette date sont désormais désignées comme étant en fin de support. Toutefois, afin de vous donner plus de temps pour planifier et migrer vers des versions plus récentes, Amazon EMR proposera un support temporaire, équivalent au support standard, pour ces anciennes versions publiées au cours de la période de deux ans précédant cette annonce.

Après le 25 juillet 2024, vous pouvez consulter le statut actuel et les délais de support dans les notes de publication. 

Le tableau suivant indique l'état de support de toutes les versions existantes d'Amazon EMR au moment de l'annonce de la politique, le 25 juillet 2024 :


**Versions et périodes prises en charge**  

| Version Amazon EMR | Date de sortie initiale | Date de fin du support standard | Date de début de fin du support | Date de début de fin de vie | 
| --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-standard-support.html)  | 1er janvier 2013 au 25 juillet 2024 | Support du pont jusqu'au 31 juillet 2026 | 1 août 2026 | 1 août 2027 | 

**Note**  
Les dates de support temporaire ont été prolongées jusqu'au 31 juillet 2026 pour toutes les versions éligibles.

Vous pouvez utiliser l'agent de mise à niveau Apache Spark pour mettre à niveau vos applications Apache Spark existantes sur EMR on et EMR EC2 Serverless depuis les anciennes versions d'EMR vers la dernière version d'EMR. Pour en savoir plus, veuillez consulter la section [Qu'est-ce que l'agent de mise à niveau Apache Spark pour Amazon EMR](spark-upgrades.md).

## Considérations
<a name="emr-standard-support-considerations"></a>

Le support standard est disponible pour tous les modèles de déploiement d'Amazon EMR (EMR activé, EC2 Amazon EMR sur EKS et EMR sans serveur), dans toutes les régions où Amazon EMR est disponible, sans frais supplémentaires. Les clusters exécutés avec des configurations recommandées sont automatiquement éligibles au support tel que décrit dans la politique. Vous n'avez donc pas besoin de prendre d'autres mesures pour activer le support.
+ Le support standard prend uniquement en charge les composants requis pour les clusters Amazon EMR. Amazon EMR ne peut pas garantir les correctifs de sécurité et la disponibilité des correctifs dans le cas où les composants open source de *Core Engine* atteignent la fin de vie en amont, ou lorsque les mises à jour de sécurité ne sont plus disponibles pour les dépendances. Bien que vous puissiez choisir d'installer des *options supplémentaires*, Amazon EMR ne les prendra pas en charge ni ne prendra en charge leurs dépendances. Par exemple, vous pouvez installer des applications tierces dans votre AMI personnalisée pour renforcer la sécurité de votre cluster, installer des composants supplémentaires ou copier des objets à l'aide de scripts d'action bootstrap, ou via SSH dans votre cluster et mettre à niveau les versions de package par défaut. Amazon EMR ne prend pas en charge ces composants. Le support standard ne couvre pas les actions de démarrage, les packages, les bibliothèques fournis par le client, votre code personnalisé et les applications bring-your-own personnalisées que vous pouvez configurer Amazon EMR pour installer à votre convenance.
+ Vos clusters existants ne seront pas affectés, quelle que soit la version d'Amazon EMR qu'ils utilisent. Vous pouvez continuer à exécuter les clusters existants sans interruption. Vous pouvez également continuer à lancer de nouveaux clusters et à exécuter des tâches sur toutes les versions existantes ou nouvelles. Toutes les versions existantes et les nouvelles versions au moment de l'entrée en vigueur de la politique sont couvertes par le Support Standard pendant 24 mois à compter de la date initiale de sortie de la version de lancement d'Amazon EMR. Amazon EMR vous fournira une assistance temporaire lors de l'annonce initiale de la politique. Pour bénéficier d'une assistance ininterrompue, nous vous conseillons de tester vos applications et de passer rapidement à la version la plus récente d'Amazon EMR.
+ Amazon EMR ne modifiera pas les composants du Support standard sur les versions ou clusters existants. Amazon EMR se réserve toutefois le droit de respecter la fin de vie en amont sur une certaine case-by-case base et de supprimer ces composants dans les nouvelles versions, ou de passer la version existante au statut de fin de support (eOS) ou de fin de vie (eOL) dans des cas exceptionnels. Nous vous informerons de toute suppression par le biais des canaux disponibles.
+ Lorsqu'une nouvelle région est lancée, Amazon EMR ne prend en charge que les versions d'Amazon EMR dans le cadre du support standard, publiées six mois avant la date de mise à disposition générale de la nouvelle région.
+ Amazon EMR ne mettra pas automatiquement à jour vos clusters existants vers les dernières versions. Toutefois, vous pouvez choisir de mettre à jour les nouveaux clusters avec les dernières versions des correctifs si vous le souhaitez.
+ Le coût de votre utilisation non prise en charge d'Amazon EMR sera pris en compte dans votre facture. AWS Même si vous utilisez Amazon EMR de manière non prise en charge, les coûts associés à cette utilisation font toujours partie de votre AWS consommation globale et seront inclus dans le calcul de vos frais de support.

Pour plus d'informations, contactez le [Support aux AWS développeurs](https://aws.amazon.com/premiumsupport/).

# Qu'est-ce que l'agent de mise à niveau Apache Spark pour Amazon EMR
<a name="spark-upgrades"></a>

## Introduction
<a name="emr-spark-upgrade-agent-intro"></a>

L'agent de mise à niveau Apache Spark pour Amazon EMR est une fonctionnalité d'intelligence artificielle conversationnelle qui accélère les mises à niveau des versions d'Apache Spark pour vos applications EMR. Les mises à niveau traditionnelles de Spark nécessitent des mois d'efforts d'ingénierie pour analyser les modifications des API, résoudre les conflits de dépendance et valider l'exactitude fonctionnelle. L'agent simplifie le processus de mise à niveau grâce à des instructions en langage naturel, à la transformation automatique du code et à la validation de la qualité des données.

Vous pouvez utiliser l'agent pour mettre à niveau PySpark les applications Scala s'exécutant sur Amazon EMR on EC2 et Amazon EMR Serverless. L'agent analyse votre code, identifie les modifications requises et effectue des transformations automatisées tout en gardant le contrôle de l'approbation de toutes les modifications.

**Note**  
L'agent de mise à niveau Apache Spark est disponible sans frais supplémentaires dans le cadre d'Amazon EMR. Vous ne payez que pour les ressources Amazon EMR sous-jacentes utilisées lors de l'exécution des tâches de validation.

## Présentation de l'architecture
<a name="emr-spark-upgrade-agent-architecture"></a>

L'agent de mise à niveau comporte trois composants principaux : tout assistant AI compatible avec MCP présent dans votre environnement de développement pour l'interaction, le [proxy MCP AWS qui gère les](https://github.com/aws/mcp-proxy-for-aws) communications sécurisées entre votre client et le serveur MCP, et le serveur MCP géré par Amazon SageMaker Unified Studio (en version préliminaire) qui fournit des outils de mise à niveau Spark spécialisés pour Amazon EMR. Ce schéma illustre la manière dont vous interagissez avec le serveur MCP géré par Amazon SageMaker Unified Studio via votre assistant AI.

![\[Agent de mise à niveau Apache Spark\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/images/SparkUpgradeIntroduction.png)


L'assistant AI orchestrera la mise à niveau à l'aide d'outils spécialisés fournis par le serveur MCP en suivant les étapes suivantes :

1. **Planification** : l'agent analyse la structure de votre projet et génère ou révise un plan de mise à niveau qui guide le processus de mise à niveau de end-to-end Spark.

1. **Compiler et compiler** : l'agent met à jour l'environnement de construction et les dépendances, compile le projet et corrige de manière itérative les échecs de compilation et de test.

1. **Outils d'édition de code Spark** : l'agent applique des mises à jour de code ciblées pour résoudre les incompatibilités entre les versions de Spark, en corrigeant à la fois les erreurs de compilation et d'exécution.

1. **Exécution et validation** : l'agent soumet des tâches de validation à distance à EMR, surveille l'exécution et les journaux, et résout de manière itérative les problèmes d'exécution et de qualité des données.

1. **Observabilité** : l'agent suit la progression de la mise à niveau à l'aide des outils d'observabilité EMR et permet aux utilisateurs de consulter les analyses et le statut des mises à niveau à tout moment.

Référez-vous [Utilisation des outils de mise à niveau Spark](emr-spark-upgrade-agent-tools.md) à la liste des principaux outils pour chaque étape.

**Topics**
+ [

## Introduction
](#emr-spark-upgrade-agent-intro)
+ [

## Présentation de l'architecture
](#emr-spark-upgrade-agent-architecture)
+ [

# Configuration de l'agent de mise à niveau
](emr-spark-upgrade-agent-setup.md)
+ [

# Utilisation de l'agent de mise à niveau
](emr-spark-upgrade-agent-using.md)
+ [

# Caractéristiques et capacités
](emr-spark-upgrade-agent-features.md)
+ [

# Résolution des problèmes et questions et réponses
](emr-spark-upgrade-agent-troubleshooting.md)
+ [

# Détails du flux de travail de l'agent Spark Upgrade
](emr-spark-upgrade-agent-workflow-details.md)
+ [

# Activer la validation de la qualité des données
](emr-spark-upgrade-agent-data-quality-validation.md)
+ [

# Exemples rapides pour l'agent de mise à niveau Spark
](emr-spark-upgrade-agent-prompt-examples.md)
+ [

# Création d'un cluster EMR cible/d'une application EMR-S à partir de clusters EMR existants
](emr-spark-upgrade-agent-target-cluster.md)
+ [

# Configuration du rôle IAM
](emr-spark-upgrade-agent-iam-role.md)
+ [

# Configuration des points de terminaison VPC d'interface pour Amazon Unified Studio MCP SageMaker
](spark-upgrade-agent-vpc-endpoints.md)
+ [

# Utilisation des outils de mise à niveau Spark
](emr-spark-upgrade-agent-tools.md)
+ [

# Traitement interrégional pour l'agent de mise à niveau Apache Spark
](emr-spark-upgrade-agent-cross-region.md)
+ [

# Journalisation des appels MCP Amazon SageMaker Unified Studio à l'aide de AWS CloudTrail
](spark-upgrade-cloudtrail-integration.md)
+ [

# Améliorations des services pour les agents Apache Spark
](emr-spark-agent-service-improvements.md)

# Configuration de l'agent de mise à niveau
<a name="emr-spark-upgrade-agent-setup"></a>

**Note**  
L'agent de mise à niveau Apache Spark utilise l'inférence entre régions pour traiter les demandes en langage naturel et générer des réponses. Pour plus de détails, veuillez consulter cette page sur[Traitement interrégional pour l'agent de mise à niveau Apache Spark](emr-spark-upgrade-agent-cross-region.md). Le serveur Amazon SageMaker Unified Studio MCP est en version préliminaire et est sujet à modification. 

## Conditions préalables
<a name="spark-upgrade-agent-prerequisites"></a>

Avant de commencer notre processus de configuration pour l'intégration à Kiro CLI, assurez-vous que les éléments suivants sont installés sur votre poste de travail :
+  [Installation de la AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) 
+  [Installez Python 3.10\$1](https://www.python.org/downloads/release/python-3100/) 
+  [Installez le gestionnaire de `uv` packages](https://docs.astral.sh/uv/getting-started/installation/) pour [MCP Proxy](https://github.com/aws/mcp-proxy-for-aws?tab=readme-ov-file) pour AWS
+  [Installez Kiro CLI](https://kiro.dev/docs/cli/) 
+ AWS informations d'identification locales configurées (via une [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html), des variables d'environnement ou des rôles IAM) : pour les opérations locales telles que le téléchargement d'artefacts de tâche mis à niveau pour l'exécution de tâches de validation EMR.

## Ressources de configuration
<a name="spark-upgrade-agent-setup-resources"></a>

Vous pouvez utiliser un CloudFormation modèle pour configurer la ressource pour le serveur MCP. Ces modèles sont des exemples que vous devez modifier pour répondre à vos besoins. Le modèle crée les ressources suivantes pour le processus de mise à niveau :
+ Rôle IAM autorisé à appeler le serveur MCP et aux autorisations requises pour le processus de mise à niveau de la plate-forme EMR sous-jacente.
+ Compartiment intermédiaire Amazon S3 utilisé pour télécharger des artefacts de mise à niveau et une clé KMS facultative pour le chiffrement Amazon S3.

Choisissez l'un des boutons **Launch Stack** (Lancer la pile) du tableau suivant. Cela lance la pile sur la CloudFormation console dans la région correspondante.


| Région | Lancer | 
| --- | --- | 
| USA Est (Virginie du Nord) |  [https://console.aws.amazon.com/cloudformation/home?region=us-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-1.s3.us-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=us-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-1.s3.us-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| USA Est (Ohio) |  [https://console.aws.amazon.com/cloudformation/home?region=us-east-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-2.s3.us-east-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=us-east-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-2.s3.us-east-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| USA Ouest (Oregon) |  [https://console.aws.amazon.com/cloudformation/home?region=us-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-west-2.s3.us-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=us-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-west-2.s3.us-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Europe (Irlande) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-west-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-1.s3.eu-west-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-west-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-1.s3.eu-west-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Asie-Pacifique (Tokyo) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-1.s3.ap-northeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-1.s3.ap-northeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Asie-Pacifique (Singapour) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-1.s3.ap-southeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-1.s3.ap-southeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Asie-Pacifique (Sydney) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-2.s3.ap-southeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-2.s3.ap-southeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Canada (Centre) |  [https://console.aws.amazon.com/cloudformation/home?region=ca-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ca-central-1.s3.ca-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ca-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ca-central-1.s3.ca-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Amérique du Sud (São Paulo) |  [https://console.aws.amazon.com/cloudformation/home?region=sa-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-sa-east-1.s3.sa-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=sa-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-sa-east-1.s3.sa-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Europe (Francfort) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-central-1.s3.eu-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-central-1.s3.eu-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Europe (Stockholm) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-north-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-north-1.s3.eu-north-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-north-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-north-1.s3.eu-north-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Europe (Londres) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-2.s3.eu-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-2.s3.eu-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Europe (Paris) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-west-3#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-3.s3.eu-west-3.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-west-3#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-3.s3.eu-west-3.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Asie-Pacifique (Séoul) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-2.s3.ap-northeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-2.s3.ap-northeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| Asie-Pacifique (Mumbai) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-south-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-south-1.s3.ap-south-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-south-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-south-1.s3.ap-south-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 

Accédez à la page **Spécifier les détails de la pile**, entrez le **nom de la pile**. Saisissez des informations supplémentaires sous **Paramètres**. Fournissez les informations suivantes et procédez à la création de la pile.
+ **SparkUpgradeIAMRoleNom** : nom du rôle IAM à utiliser pour le processus de mise à niveau de Spark
+ **Activer EMREC2 - Activer** les autorisations de EC2 mise à niveau EMR (valeur par défaut : true)
+ **Activer EMRServerless** : active les autorisations de mise à niveau sans serveur EMR (valeur par défaut : true)
+ **StagingBucketPath**- Chemin Amazon S3 pour le stockage des artefacts (par exemple, s3://my - bucket/spark-upgrade or my-bucket/spark -upgrade). Laissez le champ vide pour générer automatiquement un nouveau compartiment
+ **Uses3Encryption** : active le chiffrement KMS pour le compartiment intermédiaire Amazon S3 (par défaut : false, défini sur true pour utiliser le chiffrement KMS au lieu du chiffrement S3 par défaut)
+ **S3 KmsKeyArn** : ARN (facultatif) de la clé KMS existante pour le chiffrement du compartiment Amazon S3. Utilisé uniquement si Uses3Encryption est vrai et que vous avez un bucket existant avec une clé KMS
+ **CloudWatchKmsKeyArn**- (Facultatif) ARN de la clé KMS existante pour le chiffrement CloudWatch des journaux (EMR sans serveur uniquement, laissez le champ vide pour le chiffrement par défaut)
+ **EMRServerlessS3 LogPath** - (Facultatif) Chemin S3 où sont stockés les journaux des applications sans serveur EMR (par exemple, s3://my - bucket/emr-serverless-logs or my-bucket/emr -serverless-logs). Lorsqu'il est fourni, accorde au rôle IAM un accès en lecture à ces journaux à des fins d'analyse. Utilisé uniquement lorsque Enable EMRServerless est vrai
+ **ExecutionRoleToGrantS3Access** - (facultatif) Nom du rôle IAM ou ARN du rôle d'exécution EMR- EC2 /EMR-Serverless existant pour accorder l'accès au bucket intermédiaire Amazon S3. S'applique uniquement lorsqu'un nouveau bucket intermédiaire est créé. Utile pour accorder aux rôles d'exécution de tâches EMR l'accès au bucket intermédiaire. Supporte à la fois des noms de rôle simples et ARNs des chemins.

Vous pouvez également télécharger et consulter [le CloudFormation modèle](https://github.com/aws-samples/aws-emr-utilities/blob/03c20fece616de23ec0ea5389f0113a5bc65fc3a/utilities/apache-spark-agents/spark-upgrade-agent-cloudformation/spark-upgrade-mcp-setup.yaml), spécifier les options ci-dessus et lancer le modèle vous-même à l'aide des commandes de la CloudFormation CLI, voir un exemple ci-dessous :

```
# deploy the stack with CloudFormation CLI commands
aws cloudformation deploy \
  --template-file spark-upgrade-mcp-setup.yaml \
  --stack-name spark-mcp-setup \
  --region <your mcp server launch region> \
  --capabilities CAPABILITY_NAMED_IAM \
  --parameter-overrides \
    ExecutionRoleToGrantS3Access=<your EMR or EMR Serverless job execution role>


# retrieve the 1-line instruction to set the local environment variables, which will be used for the following MCP server configuration
aws cloudformation describe-stacks \
  --stack-name spark-mcp-setup \
  --region <your mcp server launch region> \
  --query "Stacks[0].Outputs[?OutputKey=='ExportCommand'].OutputValue" \
  --output text
```

Ouvrez l'onglet Sorties (ou récupérez-la à partir de la commande de la CLI CloudFormation describe-stacks ci-dessus) et copiez l'`ExportCommand`instruction d'une ligne, puis exécutez-la dans votre environnement local. Exemple d'instruction d'une ligne :

```
export SMUS_MCP_REGION=<your mcp server launch region> && export IAM_ROLE=arn:aws:iam::111122223333:role/spark-upgrade-role-xxxxxx && export STAGING_BUCKET_PATH=<your staging bucket path>
```

Exécutez ensuite la commande suivante localement pour configurer le profil IAM et la configuration du serveur MCP

```
# Step 1: Configure AWS CLI Profile  
aws configure set profile.spark-upgrade-profile.role_arn ${IAM_ROLE}  
aws configure set profile.spark-upgrade-profile.source_profile <AWS CLI Profile to assume the IAM role - ex: default>  
aws configure set profile.spark-upgrade-profile.region ${SMUS_MCP_REGION}  
  
# Step 2: if you are using Kiro CLI, use the following command to add the MCP configuration  
kiro-cli-chat mcp add \  
    --name "spark-upgrade" \  
    --command "uvx" \  
    --args "[\"mcp-proxy-for-aws@latest\",\"https://sagemaker-unified-studio-mcp.${SMUS_MCP_REGION}.api.aws/spark-upgrade/mcp\", \"--service\", \"sagemaker-unified-studio-mcp\", \"--profile\", \"spark-upgrade-profile\", \"--region\", \"${SMUS_MCP_REGION}\", \"--read-timeout\", \"180\"]" \  
    --timeout 180000\  
    --scope global
```

Cela devrait être mis `~/.kiro/settings/mcp.json` à jour pour inclure la configuration du serveur MCP comme indiqué ci-dessous.

```
{  
  "mcpServers": {  
    "spark-upgrade": {  
      "type": "stdio",  
      "command": "uvx",  
      "args": [  
        "mcp-proxy-for-aws@latest",  
        "https://sagemaker-unified-studio-mcp.us-east-1.api.aws/spark-upgrade/mcp",  
        "--service",  
        "sagemaker-unified-studio-mcp",  
        "--profile",  
        "spark-upgrade-profile",  
        "--region",  
        "us-east-1",  
        "--read-timeout",  
        "180"  
      ],  
      "timeout": 180000,  
      "disabled": false  
    }  
  }  
}
```

Consultez [Utilisation de l'agent de mise à niveau](emr-spark-upgrade-agent-using.md) les conseils de configuration pour différents clients MCP tels que Kiro, Cline et. GitHub CoPilot

# Utilisation de l'agent de mise à niveau
<a name="emr-spark-upgrade-agent-using"></a>

## Modes de déploiement pris en charge
<a name="emr-spark-upgrade-agent-deployment-modes"></a>

L'agent de mise à niveau Apache Spark pour Amazon EMR prend en charge les deux modes de déploiement suivants pour l'expérience de mise à niveau de l'application end-to-end Spark, notamment la mise à niveau du fichier de build, script/dependency le test local et la validation avec le cluster EMR cible ou l'application EMR Serverless, et la validation de la qualité des données.
+ EMR activé EC2
+ EMR sans serveur

Veuillez vous référer [Caractéristiques et capacités](emr-spark-upgrade-agent-features.md) à cette section pour comprendre les caractéristiques détaillées, les capacités et les limites.

## Interfaces prises en charge
<a name="emr-spark-upgrade-agent-supported-interfaces"></a>

### Intégration avec Amazon SageMaker Unified Studio VS Code Editor Spaces
<a name="emr-spark-upgrade-agent-sagemaker-studio"></a>

Sur Amazon SageMaker Unified Studio VS Code Editor Spaces, vous pouvez configurer le profil IAM et la configuration MCP comme décrit dans la section Configuration de l'agent de mise à niveau en suivant simplement la capture d'écran ci-dessous :

![\[Agent de mise à niveau Apache Spark\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/images/SparkUpgradeVSCodeEditor.png)


Une démonstration de l'expérience EMR lors de la EC2 mise à niveau avec l'éditeur de code SMUS VS. Cela commence par une simple invite à demander à l'agent de démarrer le processus de mise à niveau de Spark.

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.   
Use spark-upgrade-profile for AWS CLI operations.
```

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Hk4_GPvYeqI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Hk4_GPvYeqI)


### Intégration avec Kiro CLI (QCLI)
<a name="emr-spark-upgrade-agent-kiro-cli"></a>

Démarrez Kiro CLI ou votre assistant AI et vérifiez les outils chargés pour l'agent de mise à niveau.

```
...  
spark-upgrade (MCP):   
- check_and_update_build_environment     * not trusted  
- check_and_update_python_environment    * not trusted  
- check_job_status                       * not trusted  
- compile_and_build_project              * not trusted  
...
```

Une démonstration de l'expérience de mise à niveau EMR sans serveur avec Kiro CLI. Vous pouvez simplement démarrer le processus de mise à niveau en suivant le message suivant :

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-Serverless Applicaion <application-id> and execution role <your EMR Serverless job execution role> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.
```

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Kw8E2wWv4uQ/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Kw8E2wWv4uQ)


### Intégration avec d'autres IDEs
<a name="emr-spark-upgrade-agent-other-ides"></a>

La [configuration](emr-spark-upgrade-agent-setup.md#spark-upgrade-agent-setup-resources) peut également être utilisée dans d'autres applications IDEs pour se connecter au serveur Managed MCP :
+ **Intégration avec Cline** - Pour utiliser le serveur MCP avec Cline, modifiez `cline_mcp_settings.json` et ajoutez la configuration ci-dessus. Consultez [la documentation de Cline](https://docs.cline.bot/mcp/configuring-mcp-servers) pour plus d'informations sur la gestion de la configuration MCP.
+ **Intégration avec Claude Code** Pour utiliser le serveur MCP avec Claude Code, modifiez le fichier de configuration pour inclure la configuration MCP. Le chemin du fichier varie en fonction de votre système d'exploitation. Reportez-vous à [https://code.claude.com/docs/en/mcp](https://code.claude.com/docs/en/mcp) pour une configuration détaillée.
+ **Intégration avec GitHub Copilot** - Pour utiliser le serveur MCP avec GitHub Copilot, suivez les instructions contenues dans [ https://docs.github.com/en/copilot/how-tos/provide-context/use-mcp/extend- copilot-chat-with-mcp](https://docs.github.com/en/copilot/how-tos/provide-context/use-mcp/extend-copilot-chat-with-mcp) pour modifier le fichier de configuration correspondant et suivez les instructions de chaque IDE pour activer l'installation.

## Configuration du cluster EMR ou de l'application EMR sans serveur pour la version cible
<a name="emr-spark-upgrade-agent-setup-target"></a>

Créez le cluster EMR ou l'application EMR Serverless avec la version Spark attendue que vous prévoyez d'utiliser pour l'application mise à niveau. Le cluster EMR ou l'application EMR-S cible seront utilisés pour soumettre les tâches de validation après la mise à niveau des artefacts de l'application Spark afin de vérifier la réussite de la mise à niveau ou de corriger les erreurs supplémentaires rencontrées lors de la validation. Si vous possédez déjà un cluster EMR cible ou une application EMR Serverless, vous pouvez vous référer au cluster EMR existant et ignorer cette étape. Utilisez des comptes de développeur hors production et sélectionnez des exemples de jeux de données fictifs qui représentent vos données de production, mais dont la taille est réduite pour la validation avec Spark Upgrades. Reportez-vous à cette page pour obtenir des conseils sur la création d'un cluster EMR cible ou d'une application EMR Serverless à partir de clusters EMR existants :. [Création d'un cluster EMR cible/d'une application EMR-S à partir de clusters EMR existants](emr-spark-upgrade-agent-target-cluster.md)

# Caractéristiques et capacités
<a name="emr-spark-upgrade-agent-features"></a>

## Technologies prises en charge
<a name="emr-spark-upgrade-agent-supported-technologies"></a>
+ **Langages** : applications Python et Scala
+ **Systèmes de construction** : Maven et SBT pour les projets Scala ; requirements.txt, Pipfile et Setuptools pour les projets Python
+ **Plateformes cibles** : Amazon EMR et EMR Serverless
+ **Versions prises en charge** : nous prenons en charge les mises à niveau d'Apache Spark de la version 2.4 à la version 3.5. Les mappages de mode de déploiement correspondants sont les suivants :
  + **Pour EMR- EC2**
    + **Version source :** EMR 5.20.0 et versions ultérieures
    + **Version cible :** EMR 7.12.0 et versions antérieures, devraient être plus récentes que EMR 5.20.0
  + **Pour EMR Serverless**
    + **Version source :** EMR Serverless 6.6.0 et versions ultérieures
    + **Version cible :** EMR Serverless 7.12.0 et versions antérieures

## Ce que nous améliorons
<a name="emr-spark-upgrade-agent-what-we-upgrade"></a>

L'agent de mise à niveau fournit des mises à niveau complètes des applications Spark :
+ **Configuration de construction** : met automatiquement à jour les fichiers de gestion des dépendances (pom.xml, requirements.txt, etc.)
+ **Code source** : corrige les problèmes de compatibilité des API et l'utilisation de méthodes obsolètes
+ **Code de test** : garantit que les tests unitaires et d'intégration fonctionnent avec la version cible de Spark
+ **Dépendances** : met à niveau les dépendances packagées vers des versions compatibles avec la version EMR cible
+ **Validation** : compile et valide les applications sur les clusters EMR cibles
+ **Analyse de la qualité des données** : détecte les différences de schéma, les dérives statistiques au niveau des valeurs (min/max/mean) et les incohérences entre les nombres de lignes agrégés, avec des rapports d'impact détaillés.

## Régions disponibles
<a name="emr-spark-upgrade-agent-available-regions"></a>

L'agent de mise à niveau Spark est disponible dans les régions suivantes :
+ **Asie-Pacifique** : Tokyo (ap-northeast-1), Séoul (ap-northeast-2), Singapour (ap-southeast-1), Sydney (ap-southeast-2) et Mumbai (ap-southeast-1)
+ **Amérique du** Nord : Canada (ca-central-1)
+ **Europe** : Stockholm (eu-nord-1), Irlande (eu-west-1), Londres (eu-west-2), Paris (eu-west-3) et Francfort (eu-central-1)
+ **Amérique du Sud** : São Paulo (sa-east-1)
+ **États-Unis** : Virginie du Nord (us-east-1), Ohio (us-east-2) et Oregon (us-west-2)

## Étendue des mises à niveau et exigences des utilisateurs
<a name="emr-spark-upgrade-agent-scope-limitations"></a>
+ **Gestion des clusters** : Spark Upgrade Agent se concentre sur les mises à niveau du code des applications. Les clusters EMR cibles pour les nouvelles versions doivent être créés et gérés par les utilisateurs.
+ **Actions de démarrage :** l'agent de mise à niveau Spark ne met pas à niveau les scripts de démarrage personnalisés en dehors du code de l'application Spark. Ils doivent être mis à jour par l'utilisateur.
+ **Mise à niveau pour la compilation et les tests** : l'agent de mise à niveau effectuera la compilation et exécutera vos tests unitaires et d'intégration sur votre environnement de développement localement pour valider que les applications se compilent correctement avec la version cible de Spark. Si vous avez des restrictions (politiques de sécurité, limites de ressources, restrictions réseau ou directives d'entreprise) concernant le code d'application Spark pour une exécution locale, pensez à utiliser [Amazon SageMaker Unified Studio VSCode IDE Spaces](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/create-space.html) ou EC2 à exécuter l'agent de mise à niveau. L'agent de mise à niveau utilise votre EC2 cluster EMR cible ou vos applications EMR-S pour valider et mettre à niveau. end-to-end
+ **Approche axée sur les erreurs** : l'agent de mise à niveau utilise une méthodologie basée sur les erreurs, apportant un correctif à la fois en fonction d'erreurs de compilation ou d'exécution plutôt que de plusieurs correctifs à la fois. Cette approche itérative garantit que chaque problème est correctement traité avant de passer au suivant.
+ **Dépendances privées** : les dépendances installées à partir de référentiels d'artefacts privés ne peuvent pas être mises à niveau automatiquement dans le cadre de ce processus. Ils doivent être mis à jour par l'utilisateur.
+ **Ressources régionales** : l'agent de mise à niveau Spark est régional et utilise les ressources EMR sous-jacentes de cette région pour le processus de mise à niveau. Les mises à niveau entre régions ne sont pas prises en charge.

# Résolution des problèmes et questions et réponses
<a name="emr-spark-upgrade-agent-troubleshooting"></a>

## Résolution des problèmes
<a name="spark-upgrade-agent-troubleshooting-common"></a>

Le message d'erreur du processus de mise à niveau est disponible de différentes manières pour les différents clients MCP. Dans cette page, nous listons quelques conseils généraux concernant les problèmes courants que vous pouvez rencontrer lors de l'utilisation de l'agent de mise à niveau Apache Spark pour Amazon EMR.

**Topics**
+ [

### Erreur : le serveur MCP géré par SMUS n'a pas pu être chargé
](#spark-upgrade-agent-mcp-server-failed)
+ [

### Observation : chargement lent des outils
](#spark-upgrade-agent-slow-tool-loading)
+ [

### Erreur : échec de l'invocation de l'outil en raison d'une erreur de régulation
](#spark-upgrade-agent-throttling-error)
+ [

### Erreur : l'outil répond avec une erreur utilisateur
](#spark-upgrade-agent-user-error)
+ [

### Erreur : l'outil répond avec une erreur interne
](#spark-upgrade-agent-internal-error)

### Erreur : le serveur MCP géré par SMUS n'a pas pu être chargé
<a name="spark-upgrade-agent-mcp-server-failed"></a>
+  Vérifiez que votre configuration MCP est correctement configurée. 
+ **Validez la syntaxe JSON** :
  + Assurez-vous que votre JSON est valide et qu'il n'y a aucune erreur de syntaxe
  + Vérifiez s'il manque des virgules, des guillemets ou des crochets
+ Vérifiez vos AWS informations d'identification locales et vérifiez que la politique du rôle MCP IAM est correctement configurée.
+ Exécutez /mcp pour vérifier la disponibilité du serveur MCP pour le cas `Kiro-CLI`

### Observation : chargement lent des outils
<a name="spark-upgrade-agent-slow-tool-loading"></a>
+ Le chargement des outils peut prendre quelques secondes lors de la première tentative de lancement du serveur.
+ Si aucun outil ne s'affiche, essayez de redémarrer le chat,
+ Exécutez `/tools` la commande pour vérifier la disponibilité de l'outil.
+ Exécuter `/mcp` si le serveur est lancé sans erreur.

### Erreur : échec de l'invocation de l'outil en raison d'une erreur de régulation
<a name="spark-upgrade-agent-throttling-error"></a>

Si vous atteignez votre limite de service, attendez quelques secondes pour lancer un appel d'outil si vous voyez une exception de limitation.

### Erreur : l'outil répond avec une erreur utilisateur
<a name="spark-upgrade-agent-user-error"></a>
+ AccessDeniedException - vérifiez le message d'erreur et corrigez le problème d'autorisation.
+ InvalidInputException - vérifiez le message d'erreur et corrigez les paramètres d'entrée de l'outil.
+ ResourceNotFoundException - vérifiez le message d'erreur et corrigez le paramètre d'entrée pour la référence aux ressources.

### Erreur : l'outil répond avec une erreur interne
<a name="spark-upgrade-agent-internal-error"></a>
+ Si cela s'affiche, `The service is handling high-volume requests` veuillez réessayer d'invoquer l'outil dans quelques secondes.
+ Si vous voyez, `INTERNAL SERVICE EXCEPTION` veuillez documenter l'identifiant d'analyse, le nom de l'outil, tout message d'erreur disponible dans le journal MCP ou la réponse de l'outil, ainsi que l'historique des conversations désinfecté en option, puis contactez le AWS support.

## QUESTIONS-RÉPONSES
<a name="spark-upgrade-agent-qa"></a>

### 1. Dois-je activer le paramètre « confiance » pour les outils par défaut ?
<a name="spark-upgrade-agent-qa-trust-setting"></a>

N'activez pas le paramètre « trust » par défaut pour tous les appels d'outils au départ et opérez sur un environnement de construction versionné par git. Passez en revue l'exécution de chaque outil pour comprendre les modifications apportées, par exemple, passez en revue le plan de mise à niveau avant de donner votre consentement. Ne vous fiez jamais au Kiro ou à l'`fs_write`outil de votre agent : cet outil modifie les fichiers de votre projet et vous devez toujours revoir les modifications avant qu'elles ne soient enregistrées/validées. En général, examinez toutes les modifications proposées aux fichiers avant de les autoriser à être écrites. Utilisez git pour modifier les versions et créer des points de contrôle tout au long du processus de mise à niveau. Renforcez progressivement la confiance : si vous utilisez le système à plusieurs reprises pour plusieurs mises à niveau et que vous avez acquis confiance dans les outils, vous pouvez faire confiance à certains outils de manière sélective.

### 2. Quels sont les exemples d'instructions courants pour tirer parti des outils de mise à niveau ?
<a name="spark-upgrade-agent-qa-prompt-examples"></a>

Reportez-vous à [Exemples rapides pour l'agent de mise à niveau Spark](emr-spark-upgrade-agent-prompt-examples.md) des exemples rapides sur l'utilisation des outils de mise à niveau.

# Détails du flux de travail de l'agent Spark Upgrade
<a name="emr-spark-upgrade-agent-workflow-details"></a>

Pour lancer le processus de mise à niveau, vous aurez besoin du code de l'application Spark cloné dans votre environnement de développement (localement EC2 ou [Amazon SageMaker Unified Studio IDE Spaces](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/create-space.html)), de préférence avec le contrôle de version Git initialisé. En outre, un cluster EMR exécutant la version cible de Spark doit être provisionné et accessible. Enfin, un chemin de compartiment Amazon S3 désigné doit être configuré pour stocker les artefacts de déploiement et le résumé de la mise à niveau tout au long du processus de mise à niveau.

Une fois ces exigences établies, vous pouvez envoyer une invite comme celle-ci pour lancer le flux de travail de mise à niveau :

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.
```

À ce stade, l'agent va orchestrer la mise à niveau à l'aide d'outils spécialisés (pour plus de [détails](emr-spark-upgrade-agent-tools.md)). Le flux de travail suit les étapes suivantes :

1. **Générer un plan** : l'agent analysera la structure de votre projet et générera un plan de mise à niveau. Passez en revue le plan et donnez votre consentement pour continuer.

1. **Révision et personnalisation du plan** : Lorsque vous êtes invité à revoir le plan, plusieurs options s'offrent à vous :

   1. **Procéder tel quel** : accepter le plan et poursuivre l'exécution

   1. **Faites part de vos commentaires** : personnalisez le plan en :

      1. Supprimer les étapes inutiles - Exemple : supprimez toute exécution de test d'intégration. Uniquement compile/build localement, puis passez à la validation EMR.

      1. Ajout d'étapes supplémentaires - Exemple : ajoutez une étape pour exécuter le fichier de test `tests/test_jobs/test_etl_job_x.py` avant la validation EMR.

      1. Modification de l'approche de mise à niveau - Exemple : appliquez Python 3.10 et Java 17 pendant les étapes de compilation et de validation.

1. L'agent régénérera le plan en fonction de vos commentaires et vous demandera à nouveau votre consentement. Ce processus se poursuit jusqu'à ce que vous approuviez le plan final

1. **Compiler et compiler** : l'agent apportera des modifications itératives pour corriger les erreurs de compilation jusqu'à ce que l'application soit compilée et compilée avec succès.

1. **Exécuter des tests unitaires et d'intégration** : si le projet comporte des tests, l'agent exécutera les tests après une compilation réussie. Si l'un des tests échoue, l'agent modifiera le code source de manière itérative jusqu'à ce que les tests soient réussis avant de procéder à la validation EMR.

1. **Correctifs d'exécution et validation : l'agent validera l'application sur le cluster EMR cible et corrigera** de manière itérative les erreurs d'exécution jusqu'à ce que la validation soit réussie. Une fois terminé, vous verrez un résumé de toutes les modifications apportées pour des raisons de compatibilité.

1. **Résumé de la mise à niveau** : une fois la mise à niveau terminée, l'agent vous fournira un résumé de toutes les modifications de code et de configuration, des mises à jour des versions de dépendance et de toute anomalie de qualité des données détectée pour votre examen.

# Activer la validation de la qualité des données
<a name="emr-spark-upgrade-agent-data-quality-validation"></a>

Vous pouvez activer les contrôles de qualité des données en indiquant à la fois le cluster source et le cluster cible IDs dans votre invite. Le système exécute votre application existante sur le cluster source afin de collecter des métadonnées de base à des fins de comparaison.

**Remarque : seules les opérations d'écriture de Spark peuvent être suivies en termes de qualité des données.**

```
Upgrade my pyspark application <local-path>/pyspark-example-24/ from EMR version 6.0.0 to 7.12.0. Use EMR-EC2 Cluster <source-cluster-id> for source version run  
and <target-cluster-id> for target version run. Use s3 path s3://<please fill in your staging bucket path> to store updated application artifacts  
and s3://<please fill in your staging bucket path>/metadata for storing metadata. Enable data quality checks.
```

## Différences entre les flux de travail liés à
<a name="emr-spark-upgrade-agent-data-quality-workflow"></a>

Le flux de travail suit les mêmes étapes que le processus de mise à niveau standard, avec ces étapes supplémentaires dans l'ordre ci-dessus :
+ **[Après l'étape 3 : révision et personnalisation du plan]**
  + **Construire avec la configuration actuelle** : créez l'application avec la configuration actuelle pour la soumission du cluster source.
  + **Valider sur le cluster EMR source** : exécutez l'application d'origine sur la version source de Spark et collectez les métadonnées de sortie pour une comparaison de référence.
+ **[Après l'étape 7 : Résumé de la mise à niveau] Résumé de la qualité des données** : rapport de comparaison de la qualité des données entre les versions et les analyses.

### La fonctionnalité d'inadéquation de la qualité des données inclut actuellement :
<a name="emr-spark-upgrade-agent-data-quality-mismatch"></a>
+ **Vérifications du schéma** : détecte les modifications de la structure des colonnes : colonnes manquantes ou récemment ajoutées, différences de type de données et modifications de nullabilité.
+ **Vérifications des valeurs** *(colonnes numériques et chaînes uniquement*)
  + Compare les valeurs minimale, maximale et moyenne (moyenne uniquement pour les colonnes numériques).
  + Pour les chaînes, min et max sont basés sur l'ordre lexicographique.
+ **Contrôles statistiques agrégés** : compare le nombre total de lignes entre les sorties source et cible.

## Validation de la qualité des données : portée et limites
<a name="emr-spark-upgrade-agent-data-quality-scope"></a>

La validation de la qualité des données prend en charge l'EC2 étape EMR à l'aide de la commande spark-submit avec la version Spark >= 3.0 et le cluster EMR ne peut pas avoir > 1. StepConcurrencyLevel La validation de la qualité des données évalue les statistiques au niveau des nœuds récepteurs de données du plan de requête Spark (les métadonnées de la source de données/des transformations ne sont pas capturées) et couvre les opérations d'écriture courantes de Spark, notamment les écritures de fichiers, les insertions de base de données, la création de tables et les différentes sorties de sources de données.

# Exemples rapides pour l'agent de mise à niveau Spark
<a name="emr-spark-upgrade-agent-prompt-examples"></a>

Nous listons quelques exemples de commandes qui peuvent être utilisés dans le processus de mise à niveau.

## 1. Fournir des informations sur l'étape EMR existante à l'agent pour la mise à niveau d'une application Spark
<a name="emr-spark-upgrade-agent-existing-step-info"></a>

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts. The Spark   
application is already executed in the source EMR-EC2 Cluster <cluster-id> with   
step id <step-id>.
```

## 2. Analyse de la liste (utilisée pour les mises à niveau) et vérification de l'état d'une analyse spécifique
<a name="emr-spark-upgrade-agent-list-analysis"></a>

```
Can you list all the spark upgrade analysis.
```

```
Describe the analysis with analysis id <analysis id>.
```

## 3. Modifier un plan de mise à niveau après sa génération
<a name="emr-spark-upgrade-agent-modify-plan"></a>

```
Help me to update the generated upgrade plan to skip the local test step.
```

## 4. Remplacer la configuration par défaut pour l'exécution d'une tâche de validation de mise à niveau
<a name="emr-spark-upgrade-agent-override-config"></a>

```
For submitting my EMR Severless validaiton job. I would like to use S3 logging instead  
of CW logging, and use this S3 path <S3 path prefix>.
```

# Création d'un cluster EMR cible/d'une application EMR-S à partir de clusters EMR existants
<a name="emr-spark-upgrade-agent-target-cluster"></a>

Si vous possédez déjà un EC2 cluster EMR exécutant la version source de Spark, vous pouvez le cloner pour créer un nouveau cluster avec la même configuration mais une version EMR mise à jour pour exécuter les étapes de validation pendant le processus de mise à niveau.

## Étapes :
<a name="emr-spark-upgrade-agent-clone-cluster-steps"></a>

1. Connectez-vous à la console Amazon EMR AWS Management Console et ouvrez-la.

1. Dans le volet de navigation de gauche, choisissez Clusters sous EMR activé. EC2

1. Dans la liste des clusters :
   + Utilisez la recherche ou des filtres si nécessaire pour trouver votre cluster.
   + Cochez la case à côté du cluster que vous souhaitez cloner.
   + L'option Cloner apparaîtra en haut de la liste. Choisissez Clone (Cloner).
   + Si le cluster possède des étapes configurées, choisissez Inclure les étapes, puis Continuer pour cloner les étapes ainsi que les autres paramètres du cluster.

1. Vérifiez les paramètres du nouveau cluster qui ont été copiés à partir du cluster d'origine.

1. Mettez à jour la version d'Amazon EMR vers la version cible.

1. Pour des raisons de rentabilité, pensez à activer l'autoscaling lors de la configuration du cluster afin d'ajuster automatiquement la capacité en fonction des demandes de charge de travail.

1. Lorsque vous êtes satisfait de la configuration, sélectionnez Créer un cluster pour lancer le nouveau cluster.

1. Attendez que le cluster atteigne le statut En cours d'exécution et notez l'ID du cluster. Fournissez cet ID à l'agent lorsqu'il est invité à valider l'application mise à jour.

1. [Si vous préférez créer un nouveau cluster à partir de zéro, consultez la documentation EMR : https://docs.aws.amazon.com/emr/ latest/ManagementGuide/emr -gs.html.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-gs.html)

## Clonage d'une application EMR sans serveur vers la version cible
<a name="emr-spark-upgrade-agent-clone-serverless"></a>

Il n'existe aucun moyen direct de cloner une application EMR Serverless vers une nouvelle application avec une version EMR différente. Vous pouvez plutôt utiliser l'EMR Serverless SDK/CLI ou la console pour créer une nouvelle application et réutiliser la configuration d'une application existante.

Voici quelques commandes d'assistance de la CLI pour démarrer :

```
aws emr-serverless get-application --application-id XXX > old-config.json  
cat old-config.json | jq '{  
  name: (.application.name + "<suffix to differentiate name from old application>"),  
  releaseLabel: "<target EMR release version>",  
  type: .application.type,  
  initialCapacity: .application.initialCapacity,  
  maximumCapacity: .application.maximumCapacity,  
  autoStartConfiguration: .application.autoStartConfiguration,  
  autoStopConfiguration: .application.autoStopConfiguration,  
  tags: .application.tags,  
  architecture: .application.architecture,  
  runtimeConfiguration: .application.runtimeConfiguration,  
  monitoringConfiguration: .application.monitoringConfiguration  
}' > new-config.json  
aws emr-serverless create-application --cli-input-json file://new-config.json
```

**Remarque :** Assurez-vous que le rôle d'exécution de la tâche pour la nouvelle application autorise EMR Serverless à assumer ce rôle. Examinez la stratégie d'approbation du rôle. Si vous réutilisez le même rôle d'exécution de tâches que celui de l'ancienne application, mettez à jour la politique de confiance pour inclure la nouvelle application, comme indiqué ci-dessous :

```
#Replace the old application id and new application id in the policy  
{  
    "Version": "2012-10-17",		 	 	  
    "Statement": [  
        {  
            "Sid": "ServerlessTrustPolicy",  
            "Effect": "Allow",  
            "Principal": {  
                "Service": "emr-serverless.amazonaws.com"  
            },  
            "Action": "sts:AssumeRole",  
            "Condition": {  
                "StringLike": {  
                    "aws:SourceArn": [  
                        "arn:aws:emr-serverless:us-east-1:<account>:/applications/<old application id>",  
                        "arn:aws:emr-serverless:us-east-1:<account>:/applications/<new application id>"  
                    ]  
                }  
            }  
        }  
    ]  
}
```

# Configuration du rôle IAM
<a name="emr-spark-upgrade-agent-iam-role"></a>

La CloudFormation pile des instructions de configuration automatise la configuration du rôle IAM pour vous. Si vous souhaitez l'exécuter manuellement, veuillez suivre les instructions ci-dessous :

## Configuration du rôle IAM pour le serveur MCP
<a name="emr-spark-upgrade-agent-iam-mcp-server"></a>

Pour accéder au serveur MCP géré par SMUS, un rôle IAM est requis avec la politique en ligne suivante :

```
{  
    "Version": "2012-10-17",		 	 	 
    "Statement": [  
        {  
            "Sid": "AllowUseSagemakerUnifiedStudioMcpServer",  
            "Effect": "Allow",  
            "Action": [  
                "sagemaker-unified-studio-mcp:InvokeMcp",  
                "sagemaker-unified-studio-mcp:CallReadOnlyTool",  
                "sagemaker-unified-studio-mcp:CallPrivilegedTool"  
            ],  
            "Resource": [  
                "*"  
            ]  
        }  
    ]  
}
```

Au cours des prochaines étapes, nous allons créer un profil pour ce rôle. Le compte qui assume ce rôle pour obtenir les informations d'identification doit être ajouté à la politique d'attribution du rôle.

```
{  
  "Version": "2012-10-17",		 	 	 
  "Statement": [  
    {  
      "Sid": "AllowAccountToAssumeRole",  
      "Effect": "Allow",  
      "Principal": { "AWS": "arn:aws:iam::<accountId>:root" },  
      "Action": "sts:AssumeRole"  
    }  
  ]  
}
```

## Autorisations supplémentaires par mode de déploiement (EMR- /EMR-S) EC2
<a name="emr-spark-upgrade-agent-iam-deployment-modes"></a>

### Demandes d'EMR EC2
<a name="emr-spark-upgrade-agent-iam-emr-ec2"></a>

Remplacez le compartiment intermédiaire Amazon S3 dans la politique par le compartiment Amazon S3 dans lequel vous souhaitez que les artefacts mis à niveau soient stockés

```
{  
  "Version": "2012-10-17",		 	 	 
  "Statement": [  
    {  
      "Effect": "Allow",  
      "Action": [  
        "elasticmapreduce:DescribeCluster",  
        "elasticmapreduce:DescribeStep",  
        "elasticmapreduce:ListSteps",  
        "elasticmapreduce:ListClusters",  
        "elasticmapreduce:DescribeJobFlows",  
        "elasticmapreduce:AddJobFlowSteps",  
        "elasticmapreduce:CreatePersistentAppUI",  
        "elasticmapreduce:DescribePersistentAppUI",  
        "elasticmapreduce:GetPersistentAppUIPresignedURL"  
      ],  
      "Resource": "*"  
    },  
    {  
      "Effect": "Allow",  
      "Action": [  
        "s3:GetBucket*",  
        "s3:GetObject*",  
        "s3:List*",  
        "s3:Put*"  
      ],  
      "Resource": [  
        "arn:aws:s3:::<s3-staging-bucket>",  
        "arn:aws:s3:::<s3-staging-bucket>/*"  
      ]  
    }  
  ]  
}
```

#### Autorisations KMS - Staging Bucket
<a name="emr-spark-upgrade-agent-iam-kms-staging"></a>

Si le bucket intermédiaire est chiffré à l'aide d'une clé CMK, ajoutez la politique suivante. Le service utilisera automatiquement la clé CMK configurée sur le compartiment lors du téléchargement des données.

```
{  
  "Effect": "Allow",  
  "Action": [  
    "kms:GenerateDataKey",  
    "kms:Encrypt"  
  ],  
  "Resource": "arn:aws:kms:<region>:<account-id>:key/<cmk-key-id>"  
}
```

### Applications EMR sans serveur
<a name="emr-spark-upgrade-agent-iam-emr-serverless"></a>

Remplacez le compartiment intermédiaire Amazon S3 dans la politique par le compartiment Amazon S3 dans lequel vous souhaitez que les artefacts mis à niveau soient stockés

```
{  
  "Version": "2012-10-17",		 	 	 
  "Statement": [  
    {  
      "Effect": "Allow",  
      "Action": [  
        "emr-serverless:StartJobRun",  
        "emr-serverless:GetJobRun",  
        "emr-serverless:GetApplication",  
        "emr-serverless:ListApplications",  
        "emr-serverless:GetDashboardForJobRun"  
      ],  
      "Resource": "*"  
    },  
    {  
      "Effect": "Allow",  
      "Action": "iam:PassRole",  
      "Resource": "*",  
      "Condition": {  
        "StringLike": {  
          "iam:PassedToService": "emr-serverless.amazonaws.com"  
        }  
      }  
    },  
    {  
      "Effect": "Allow",  
      "Action": [  
        "logs:GetLogEvents",  
        "logs:DescribeLogStreams"  
      ],  
      "Resource": "arn:aws:logs:*:*:log-group:*"  
    },  
    {  
      "Effect": "Allow",  
      "Action": [  
        "s3:GetBucket*",  
        "s3:GetObject*",  
        "s3:List*",  
        "s3:Put*"  
      ],  
      "Resource": [  
        "arn:aws:s3:::<s3-staging-bucket>",  
        "arn:aws:s3:::<s3-staging-bucket>/*"  
      ]  
    }  
  ]  
}
```

#### Autorisations KMS - Staging Bucket
<a name="emr-spark-upgrade-agent-iam-kms-staging-serverless"></a>

Si le bucket intermédiaire est chiffré à l'aide d'une clé CMK, ajoutez la politique suivante. Le service utilisera automatiquement la clé CMK configurée sur le compartiment lors du téléchargement des données

```
{  
  "Effect": "Allow",  
  "Action": [  
    "kms:GenerateDataKey",  
    "kms:Encrypt"  
  ],  
  "Resource": "arn:aws:kms:<region>:<account-id>:key/<cmk-key-id>"  
}
```

#### Autorisations KMS - CloudWatch Journaux
<a name="emr-spark-upgrade-agent-iam-kms-cloudwatch"></a>

Si les CloudWatch journaux sont chiffrés à l'aide d'une clé CMK, ajoutez la politique suivante afin que le service puisse lire les journaux des applications sans serveur EMR.

```
{  
"Effect": "Allow",  
"Action": [  
    "kms:Decrypt",  
    "kms:DescribeKey"  
],  
"Resource": "arn:aws:kms:<region>:<account-id>:key/<cw-logs-cmk-id>"  
}
```

# Configuration des points de terminaison VPC d'interface pour Amazon Unified Studio MCP SageMaker
<a name="spark-upgrade-agent-vpc-endpoints"></a>

Vous pouvez établir une connexion privée entre votre VPC et le service Amazon SageMaker Unified Studio MCP en créant un point de terminaison *VPC* d'interface. Les points de terminaison de l'interface sont alimentés par [Amazon VPC](https://aws.amazon.com/vpc/), qui vous permet d'accéder en privé au serveur MCP de votre VPC sans passerelle Internet, appareil NAT, connexion VPN ou connexion. Les instances de votre VPC n'ont pas besoin d'adresses IP publiques pour communiquer avec le service MCP et le trafic entre votre VPC et le service MCP ne quitte pas le réseau Amazon.

Chaque point de terminaison d'interface est représenté par une ou plusieurs [interfaces réseau élastiques](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html) dans vos sous-réseaux VPC. Pour plus d'informations, consultez la section [Points de terminaison VPC d'interface dans le guide](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html) de l'utilisateur Amazon *VPC.*

## Étape 1 : Création d'un point de terminaison VPC d'interface pour Amazon SageMaker Unified Studio MCP
<a name="create-vpc-endpoint-upgrade"></a>

Vous pouvez créer un point de terminaison VPC pour le service Amazon SageMaker Unified Studio MCP à l'aide de la console Amazon VPC ou du. AWS CLI Pour plus d’informations, consultez [Création d’un point de terminaison d’interface](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html#create-interface-endpoint) dans le *Guide de l’utilisateur Amazon VPC*.

Créez un point de terminaison VPC pour Amazon SageMaker Unified Studio MCP en utilisant le nom de service suivant :
+ com.amazonaws. *<aws-region>*. sagemaker-unified-studio-mcp

Si vous activez le DNS privé pour le point de terminaison, vous pouvez envoyer des demandes d'API à Amazon SageMaker Unified Studio MCP en utilisant son nom DNS par défaut pour la région, par exemple, `sagemaker-unified-studio-mcp.us-east-1.api.aws`

Pour plus d’informations, consultez [Accès à un service via un point de terminaison d’interface](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html#access-service-though-endpoint) dans le *Guide de l’utilisateur Amazon VPC*.

## Étape 2 : Création d'une politique de point de terminaison VPC pour Amazon SageMaker Unified Studio MCP
<a name="create-vpc-endpoint-policy-upgrade"></a>

Vous pouvez associer une politique de point de terminaison à votre point de terminaison VPC qui contrôle l'accès à Amazon SageMaker Unified Studio MCP. La politique spécifie les informations suivantes :
+ Le principal qui peut exécuter des actions.
+ Les actions qui peuvent être effectuées.
+ Les ressources sur lesquelles les actions peuvent être exécutées.

Pour plus d’informations, consultez [Contrôle de l’accès aux services avec points de terminaison d’un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints-access.html) dans le *Guide de l’utilisateur Amazon VPC*.

### Exemple : politique de point de terminaison VPC permettant à MCP d'accéder à un rôle IAM spécifique
<a name="vpc-endpoint-policy-example-upgrade"></a>

Voici un exemple de politique de point de terminaison pour l'accès à Amazon SageMaker Unified Studio MCP. Lorsqu'elle est attachée à un point de terminaison, cette politique accorde l'accès aux actions Amazon SageMaker Unified Studio MCP répertoriées pour un principal de rôle IAM spécifique sur toutes les ressources.

```
{
  "Version": "2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": {
        "AWS": "arn:aws:iam::ACCOUNT-ID:role/YourRoleName"
      },
      "Action": [
        "sagemaker-unified-studio-mcp:InvokeMcp",
        "sagemaker-unified-studio-mcp:CallReadOnlyTool",
        "sagemaker-unified-studio-mcp:CallPrivilegedTool"
      ],
      "Resource": "*"
    }
  ]
}
```

## Étape 3 : test de votre VPC
<a name="test-vpc-endpoint-upgrade"></a>

La `curl` commande valide la connectivité end-to-end réseau entre votre réseau VPC EC2 () et le point de terminaison VPC en effectuant une demande. HTTP/HTTPS Une réponse curl recevant un message du serveur MCP confirme que le chemin réseau complet est fonctionnel.

### Méthode 1 : avec le DNS privé activé (recommandé)
<a name="test-private-dns-enabled-upgrade"></a>

```
curl https://sagemaker-unified-studio-mcp.us-east-1.api.aws/spark-upgrade/mcp
```

### Méthode 2 : sans activation du DNS privé
<a name="test-private-dns-disabled-upgrade"></a>

```
curl -k https://vpce-0069xxxx-ejwh6xxx.sagemaker-unified-studio-mcp.us-east-1.vpce.amazonaws.com/spark-upgrade/mcp
```

**Note**  
L'`-k`indicateur contourne la vérification du certificat SSL en raison d'une incompatibilité du nom d'hôte entre le nom DNS du point de terminaison du VPC et le nom commun (CN) du certificat.

Dans les deux cas, la commande curl renvoie une réponse :`{"Message":"...."}`. Le retour avec un message vérifie que le chemin réseau est correctement connecté au point de terminaison VPC du service MCP.

## Étape 4 : Commencez à utiliser le point de terminaison VPC MCP
<a name="use-vpc-endpoint-upgrade"></a>

Une fois que vous avez vérifié la connexion, vous pouvez suivre les étapes pour configurer le MCP dans[Configuration de l'agent de mise à niveau](emr-spark-upgrade-agent-setup.md). Utilisez simplement le point de terminaison VPC privé dans votre configuration MCP.

# Utilisation des outils de mise à niveau Spark
<a name="emr-spark-upgrade-agent-tools"></a>

## Outils de mise à niveau disponibles
<a name="emr-spark-upgrade-agent-available-tools"></a>

Le service MCP fournit plusieurs outils pour faciliter les mises à niveau de Spark. Les principaux outils sont les suivants :


|  | Nom de l'outil | Catégorie d'outil | Description | 
| --- | --- | --- | --- | 
| 1 | generate\$1spark\$1upgrade\$1plan | Planificateur | Génération d'un plan de mise à niveau EMR- EC2 /EMR-S | 
| 2 | réutiliser\$1existing\$1spark\$1upgrade\$1plan | Planificateur | Réutiliser le plan de mise à niveau local existant | 
| 3 | mettre à jour la configuration | Génération | Mettre à niveau les fichiers de configuration de build | 
| 4 | check\$1and\$1update\$1build\$1environment | Génération | Vérifier/mettre à jour l'environnement Java pour la mise à niveau de Spark | 
| 5 | compile\$1et\$1build\$1project | Génération | Fournir des conseils pour le compiling/building projet | 
| 6 | exécuter\$1validation\$1job | test | Soumettre l'application Spark à EMR- /EMR-S EC2 | 
| 7 | check\$1job\$1status | test | Vérifier l'état de l'exécution de l'EC2 étape EMR ou de la tâche EMR-S | 
| 8 | check\$1and\$1update\$1python\$1environment | Modification du code Spark | Vérifier/mettre à jour l'environnement Python pour la mise à niveau de Spark | 
| 9 | réparer un échec de mise à niveau | Modification du code Spark | Analyser une panne et proposer des solutions | 
| 10 | get\$1data\$1quality\$1summary | Observabilité | Récupérez le résumé de la qualité des données après la mise à niveau de l'application | 
| 11 | describe\$1upgrade\$1analysis | Observabilité | décrire l'analyse donnée | 
| 12 | liste\$1upgrade\$1analyses | Observabilité | liste toutes les analyses créées par le compte courant | 

Pour une liste complète de tous les outils de mise à niveau fournis par le serveur SMUS Managed MCP, vous pouvez répertorier tous les outils du serveur.

# Traitement interrégional pour l'agent de mise à niveau Apache Spark
<a name="emr-spark-upgrade-agent-cross-region"></a>

L'agent de mise à niveau Apache Spark utilise l'inférence entre régions pour traiter les demandes en langage naturel et générer des réponses. Avec l'inférence entre régions, l'agent achemine automatiquement votre demande d'inférence afin d'optimiser les performances, de maximiser les ressources informatiques disponibles et la disponibilité des modèles, et de fournir la meilleure expérience client possible. Le type d'inférence entre régions utilisé dépend de la région dans laquelle vous exécutez l'agent de mise à niveau Apache Spark. Dans la plupart des régions, l'agent sélectionnera la région optimale au sein de votre zone géographique pour traiter vos demandes d'inférence. Toutefois, dans certaines régions, une demande d'inférence faite par l'agent sera acheminée de manière sécurisée vers toutes les ressources informatiques disponibles dans toutes les régions commerciales AWS du monde.

## Inférence interrégionale
<a name="emr-spark-upgrade-agent-cross-region-inference"></a>

L'agent Apache Spark Upgrade est alimenté par et utilise l'inférence entre régions pour répartir le trafic entre les différentes AWS régions afin d'améliorer les performances et la fiabilité de l'inférence des grands modèles de langage (LLM).

Bien que l'inférence entre régions ne change pas l'endroit où votre application Spark ou votre expérience de mise à niveau sont hébergées ou où vos données sont stockées, vos invites de saisie et les résultats de sortie peuvent être transmis à différentes régions pour le traitement des inférences. Toutes les données seront transmises chiffrées sur le réseau sécurisé d’Amazon.

L'utilisation de l'inférence interrégionale n'entraîne aucun coût supplémentaire.

## Régions prises en charge pour l’inférence entre régions
<a name="emr-spark-upgrade-agent-supported-regions-inference"></a>

### Régions utilisant l'inférence géographique entre régions
<a name="emr-spark-upgrade-agent-geographic-inference"></a>

Pour la plupart des régions, les demandes d'inférence entre régions sont conservées dans les AWS régions qui font partie de la même zone géographique que celle où vous exécutez l'agent de mise à niveau Apache Spark. Par exemple, une demande émanant de l'agent de la région de l'Est des États-Unis (Virginie du Nord) est acheminée uniquement vers AWS les régions situées dans la zone géographique des États-Unis d'Amérique. Le tableau suivant décrit les régions vers lesquelles vos demandes peuvent être acheminées en fonction de la zone géographique d'origine de la demande :


|  | Zone géographique prise en charge | Régions d’inférence | 
| --- | --- | --- | 
| 1 | États-Unis | USA Est (Virginie du Nord) (us-east-1), USA Ouest (Oregon) (us-west-2), USA Est (Ohio) (us-east-2), USA Ouest (Californie du Nord) (us-west-2) | 
| 2 | Europe | Europe (Francfort) (eu-central-1), Europe (Irlande) (eu-ouest-1), Europe (Paris) (eu-ouest-3), Europe (Stockholm) (eu-nord-1), Europe (Londres) (eu-ouest-2) | 
| 3 | Asie-Pacifique | Asie-Pacifique (Tokyo) (ap-northeast-1), Asie-Pacifique (Séoul) (ap-northeast-2), Asie-Pacifique (Mumbai) (ap-south-1) | 

### Régions utilisant l'inférence interrégionale globale
<a name="emr-spark-upgrade-agent-global-inference"></a>

**Important**  
Les AWS régions suivantes utilisent l'inférence interrégionale globale. Lorsque vous utilisez l'agent de mise à niveau Apache Spark dans ces régions, vos demandes peuvent être transmises dans le monde entier à d'autres AWS régions pour le traitement des inférences afin d'optimiser les performances et la disponibilité :
+ Amérique du Sud (São Paulo) (sa-east-1)
+ Asie-Pacifique (Singapour) (ap-southeast-1)
+ Asie-Pacifique (Sydney) (ap-southeast-2)
+ Canada (Centre) (ca-central-1)

# Journalisation des appels MCP Amazon SageMaker Unified Studio à l'aide de AWS CloudTrail
<a name="spark-upgrade-cloudtrail-integration"></a>

Le serveur Amazon SageMaker Unified Studio MCP est intégré à AWS CloudTrail un service qui fournit un enregistrement des actions effectuées par un utilisateur, un rôle ou un AWS service dans le serveur Amazon SageMaker Unified Studio MCP. CloudTrail capture tous les appels d'API pour le serveur Amazon SageMaker Unified Studio MCP sous forme d'événements. Les appels capturés incluent des appels vers le serveur MCP Amazon SageMaker Unified Studio et des appels de code vers d'autres AWS opérations lors de l'exécution de l'outil depuis le serveur SageMaker Unified Studio MCP. Si vous créez un suivi, vous pouvez activer la diffusion continue d' CloudTrail événements vers un compartiment Amazon S3, y compris des événements pour le serveur MCP Amazon SageMaker Unified Studio. Si vous ne configurez pas de suivi, vous pouvez toujours consulter les événements les plus récents dans la CloudTrail console dans **Historique des événements**. À l'aide des informations collectées par CloudTrail, vous pouvez déterminer la demande envoyée au serveur Amazon SageMaker Unified Studio MCP, l'adresse IP à partir de laquelle la demande a été faite, l'auteur de la demande, la date à laquelle elle a été faite, ainsi que des informations supplémentaires.

Pour en savoir plus CloudTrail, consultez le [guide de AWS CloudTrail l'utilisateur](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/).

## Informations sur le serveur MCP Amazon SageMaker Unified Studio dans CloudTrail
<a name="sagemaker-mcp-info-in-cloudtrail-upgrade"></a>

CloudTrail est activé sur votre AWS compte lorsque vous le créez. Lorsqu'une activité se produit sur le serveur Amazon SageMaker Unified Studio MCP, cette activité est enregistrée dans un CloudTrail événement avec d'autres événements de AWS service dans **l'historique** des événements. Vous pouvez consulter, rechercher et télécharger les événements récents dans votre AWS compte. Pour plus d'informations, consultez la section [Affichage des événements à l'aide de l'historique des CloudTrail événements](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html).

Pour un enregistrement continu des événements de votre AWS compte, y compris des événements relatifs au serveur SageMaker Unified Studio MCP, créez une trace. Un suivi permet CloudTrail de fournir des fichiers journaux à un compartiment Amazon S3. Par défaut, lorsque vous créez un parcours dans la console, celui-ci s'applique à toutes les AWS régions. Le journal enregistre les événements de toutes les régions de la AWS partition et transmet les fichiers journaux au compartiment Amazon S3 que vous spécifiez. En outre, vous pouvez configurer d'autres AWS services pour analyser plus en détail les données d'événements collectées dans les CloudTrail journaux et agir en conséquence. Pour plus d’informations, consultez les ressources suivantes :
+ [Présentation de la création d’un journal de suivi](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html)
+ [CloudTrail services et intégrations pris en charge](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-aws-service-specific-topics.html)
+ [Configuration des notifications Amazon SNS pour CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/configure-sns-notifications-for-cloudtrail.html)
+ [Réception de fichiers CloudTrail journaux de plusieurs régions](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/receive-cloudtrail-log-files-from-multiple-regions.html) et [réception de fichiers CloudTrail journaux de plusieurs comptes](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-receive-logs-from-multiple-accounts.html)

Tous les appels d'outils du serveur SageMaker Unified Studio MCP et les appels d'API aux AWS services pendant les exécutions de l'outil sont enregistrés par. CloudTrail Par exemple, les appels aux différents outils et les appels de AWS service effectués à partir des outils génèrent des entrées dans les fichiers CloudTrail journaux.

Chaque événement ou entrée de journal contient des informations sur la personne ayant initié la demande. Les informations relatives à l’identité permettent de déterminer les éléments suivants :
+ Si la demande a été effectuée avec des informations d’identification d’utilisateur root ou IAM.
+ Si la demande a été effectuée avec des informations d’identification de sécurité temporaires pour un rôle ou un utilisateur fédéré.
+ Si la demande a été faite par un autre AWS service.

Pour de plus amples informations, veuillez consulter l'[élément userIdentity CloudTrail ](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html).

## Comprendre les entrées du fichier journal du serveur Amazon SageMaker Unified Studio MCP
<a name="understanding-mcp-log-entries-upgrade"></a>

Un suivi est une configuration qui permet de transmettre des événements sous forme de fichiers journaux à un compartiment Amazon S3 que vous spécifiez. CloudTrail les fichiers journaux contiennent une ou plusieurs entrées de journal. Un événement représente une demande unique provenant de n'importe quelle source et inclut des informations sur l'action demandée, la date et l'heure de l'action, les paramètres de la demande, etc. CloudTrail les fichiers journaux ne constituent pas une trace ordonnée des appels d'API publics, ils n'apparaissent donc pas dans un ordre spécifique.

L'exemple suivant montre une entrée de CloudTrail journal illustrant l'`CallTool`action.

```
{
    "eventVersion": "1.09",
    "userIdentity": {
        ...
    },
    "eventTime": "...",
    "eventSource": "sagemaker-unified-studio-mcp.amazonaws.com",
    "eventName": "CallPrivilegedTool",
    "awsRegion": "us-east-1",
    "sourceIPAddress": "...",
    "userAgent": "...",
    "requestParameters": {
        "id": 1,
        "method": "tools/call",
        "params": {
            "name": "generate_spark_upgrade_plan",
            "arguments": "***",
            "_meta": {
                "progressToken": 1
            }
        },
        "jsonrpc": "2.0"
    },
    "responseElements": {
        "result": {
            "content": "***",
            "structuredContent": "***",
            "isError": false
        },
        "id": 1,
        "jsonrpc": "2.0"
    },
    "requestID": "12345678-1234-1234-1234-123456789012",
    "eventID": "87654321-4321-4321-4321-210987654321",
    "readOnly": false,
    "eventType": "AwsMcpEvent",
    "managementEvent": true,
    "recipientAccountId": "123456789012",
    "eventCategory": "Management"
}
```

L'exemple suivant montre une entrée de CloudTrail journal qui illustre l'`AddJobFlowSteps`action d'Amazon SageMaker Unified Studio MCP lors de l'appel d'un outil de mise à niveau.

```
{
    "eventVersion": "1.11",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "...",
        "arn": "...",
        "accountId": "123456789012",
        "accessKeyId": "...",
        "sessionContext": {
            ...
        },
        "invokedBy": "sagemaker-unified-studio-mcp.amazonaws.com"
    },
    "eventTime": "...",
    "eventSource": "elasticmapreduce.amazonaws.com",
    "eventName": "AddJobFlowSteps",
    "awsRegion": "us-east-1",
    "sourceIPAddress": "sagemaker-unified-studio-mcp.amazonaws.com",
    "userAgent": "sagemaker-unified-studio-mcp.amazonaws.com",
    "requestParameters": {
        "jobFlowId": "j-2PY4KXXXXXX63",
        "steps": [
            ...
        ]
    },
    "responseElements": {
        "stepIds": [
            ...
        ]
    },
    "requestID": "12345678-1234-1234-1234-123456789013",
    "eventID": "87654321-4321-4321-4321-210987654322",
    "readOnly": false,
    "eventType": "AwsApiCall",
    "managementEvent": true,
    "recipientAccountId": "123456789012",
    "sharedEventID": "12345678-1234-1234-1234-123456789012",
    "vpcEndpointId": "sagemaker-unified-studio-mcp.amazonaws.com",
    "vpcEndpointAccountId": "sagemaker-unified-studio-mcp.amazonaws.com",
    "eventCategory": "Management"
}
```

# Améliorations des services pour les agents Apache Spark
<a name="emr-spark-agent-service-improvements"></a>

L'agent Apache Spark pour Amazon EMR peut utiliser du contenu, par exemple, pour aider l'agent à fournir de meilleures réponses aux questions courantes, à résoudre des problèmes opérationnels ou à des fins de débogage.

## Contenu susceptible d' AWS être utilisé pour améliorer le service
<a name="emr-spark-agent-content-used"></a>
+ Vos demandes en langage naturel et vos réponses générées par les agents Apache Spark pour Amazon EMR et Amazon Notebooks SageMaker 

## Contenu qui AWS n'est pas utilisé pour améliorer le service
<a name="emr-spark-agent-content-not-used"></a>
+ Code que vous écrivez vous-même pour les applications Spark
+ SageMaker Contexte et métadonnées du bloc-notes
+ Données issues de votre catalogue de données ou d'autres sources de données

Seuls les employés d’Amazon auront accès à ces données. Votre confiance, votre confidentialité et la sécurité du contenu de vos clients sont nos priorités absolues et garantissent que notre utilisation est conforme à nos engagements envers vous. Pour plus d’informations, consultez FAQ sur la confidentialité des données.

## Comment se désinscrire
<a name="emr-spark-agent-opt-out"></a>

Pour refuser la collecte de données pour les agents Apache Spark, configurez une politique de désactivation des services d'intelligence artificielle dans le service MCP d'Amazon SageMaker Unified Studio. Pour plus d'informations, consultez les [politiques de désinscription des services d'intelligence artificielle](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html) dans le *Guide de l'utilisateur AWS des Organizations*.

Lorsque vous configurez une politique de désinscription des services d'intelligence artificielle, cela a les effets suivants :
+ AWS supprimera les données collectées et stockées pour améliorer le service avant votre désinscription (le cas échéant).
+ Après votre désinscription, AWS nous ne collecterons ni ne stockerons plus ces données.
+ AWS n'utilisera plus votre contenu pour améliorer le service.

# Versions Amazon EMR 7.x
<a name="emr-release-7x"></a>

Cette section contient les versions des applications, les notes de mise à jour, les versions des composants et les classifications de configuration disponibles dans chaque version 7.x d’Amazon EMR.

Lorsque vous lancez un cluster, vous pouvez choisir parmi plusieurs versions d'Amazon EMR. Vous pouvez ainsi tester et utiliser des versions d'applications qui répondent à vos exigences de compatibilité. Vous spécifiez le numéro de version avec l’*étiquette de version*. Les étiquettes de version sont sous la forme `emr-x.x.x`. Par exemple, `emr-7.12.0`.

Les nouvelles versions d'Amazon EMR sont mises à disposition dans différentes régions sur une période de plusieurs jours, en commençant par la première région à la date de sortie initiale. Il est possible que la dernière version ne soit pas disponible dans votre région pendant cette période.

Pour un tableau complet des versions des applications dans chaque version 7.x d’Amazon EMR, consultez [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md).

**Topics**
+ [

# Versions des applications dans les versions 7.x d’Amazon EMR
](emr-release-app-versions-7.x.md)
+ [

# Amazon EMR version 7.12.0
](emr-7120-release.md)
+ [

# Amazon EMR version 7.11.0
](emr-7110-release.md)
+ [

# Amazon EMR version 7.10.0
](emr-7100-release.md)
+ [

# Amazon EMR version 7.9.0
](emr-790-release.md)
+ [

# Amazon EMR version 7.8.0
](emr-780-release.md)
+ [

# Amazon EMR version 7.7.0
](emr-770-release.md)
+ [

# Amazon EMR version 7.6.0
](emr-760-release.md)
+ [

# Amazon EMR version 7.5.0
](emr-750-release.md)
+ [

# Amazon EMR version 7.4.0
](emr-740-release.md)
+ [

# Amazon EMR version 7.3.0
](emr-730-release.md)
+ [

# Amazon EMR version 7.2.0
](emr-720-release.md)
+ [

# Amazon EMR version 7.1.0
](emr-710-release.md)
+ [

# Amazon EMR version 7.0.0
](emr-700-release.md)

# Versions des applications dans les versions 7.x d’Amazon EMR
<a name="emr-release-app-versions-7.x"></a>

Le tableau suivant répertorie les versions des applications disponibles dans chaque version 7.x d’Amazon EMR.


**Informations sur la version de l'application**  

|  | emr-7,12.0 | emr-7.11.0 | emr-7.10.0 | emr-7,9.0 | emr-7,8.0 | emr-7,7.0 | emr-7.6.0 | emr-7.5.0 | emr-7.4.0 | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,35,5, 1,12,792 | 2,35,5, 1,12,792 | 2,31,48, 1,12,782 | 2,31,16, 1,12,782 | 2,29,52, 1,12,780 | 2,29,44, 1,12,780 | 2,29,25, 1,12,779 | 2,28,8, 1,12,772 | 2,28,8, 1,12,772 | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 2,23,18, 1,12,656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3.9 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,17 | 2,1,17 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.3.2-amzn-1 | 3.3.2-amzn-0 | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1,20,0-amzn-6 | 1,20,0-amzn-5 | 1,20,0-amzn-4 | 1,20,0-amzn-3 | 1,20,0-amzn-2 | 1,20,0-amzn-1 | 1,20,0-amzn-0 | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 1,18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-3 | 2.6.2-amzn-2 | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 2,5,5-amzn-0 | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 2,4,17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.4.1-amzn-4 | 3.4.1-amzn-3 | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 1.0.2-amzn-1 | 1.0.2-amzn-0 | 0,15,0-amzn-7 | 0,15,0-amzn-6 | 0,15,0-amzn-5 | 0,15,0-amzn-4 | 0,15,0-amzn-3 | 0,15,0-amzn-2 | 0,15,0-amzn-1 | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.10.0-amzn-0 | 1.9.1-amzn-0 | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.7.1-incubating | 
| MXNet |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-6 | 0,287-amzn-5 | 0,287-amzn-4 | 0,287-amzn-3 | 0,287-amzn-2 | 0,287-amzn-1 | 0,287-amzn-1 | 0,287-amzn-0 | 0,287-amzn-0 | 0,285-amzn-1 | 0,285-amzn-0 | 0,284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3,5,6-amzn-1 | 3,5,6-amzn-0 | 3,5,5-amzn-1 | 3,5,5-amzn-0 | 3,5,4-amzn-0 | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.19.0 | 2.19.0 | 2.18.0 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-19 | 0.10.2-amzn-18 | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 476-amzn-1 | 475-amzn-0 | 470-amzn-0 | 467-amzn-2 | 467-amzn-1 | 467-amzn-0 | 457-amzn-0 | 446-amzn-0 | 446-amzn-0 | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.9.3-amzn-4 | 3.9.3-amzn-3 | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

# Amazon EMR version 7.12.0
<a name="emr-7120-release"></a>

## Cycle de vie pris en charge en 7.12.0
<a name="emr-7120-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.12.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 21 novembre 2025 | 
| Support standard jusqu'à | 21 novembre 2027 | 
| Fin de l'assistance | 22 novembre 2027 | 
| Fin de vie | 21 novembre 2028 | 

## Versions de l'application 7.12.0
<a name="emr-7120-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7,12.0 | emr-7.11.0 | emr-7.10.0 | emr-7,9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,35,5, 1,12,792 | 2,35,5, 1,12,792 | 2,31,48, 1,12,782 | 2,31,16, 1,12,782 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.3.2-amzn-1 | 3.3.2-amzn-0 | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 
| Flink | 1,20,0-amzn-6 | 1,20,0-amzn-5 | 1,20,0-amzn-4 | 1,20,0-amzn-3 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-3 | 2.6.2-amzn-2 | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 
| HCatalog | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 
| Hadoop | 3.4.1-amzn-4 | 3.4.1-amzn-3 | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 
| Hive | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 
| Hudi | 1.0.2-amzn-1 | 1.0.2-amzn-0 | 0,15,0-amzn-7 | 0,15,0-amzn-6 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.10.0-amzn-0 | 1.9.1-amzn-0 | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-6 | 0,287-amzn-5 | 0,287-amzn-4 | 0,287-amzn-3 | 
| Spark | 3,5,6-amzn-1 | 3,5,6-amzn-0 | 3,5,5-amzn-1 | 3,5,5-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.19.0 | 2.19.0 | 2.18.0 | 2.16.1 | 
| Tez | 0.10.2-amzn-19 | 0.10.2-amzn-18 | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 
| Trino (PrestoSQL) | 476-amzn-1 | 475-amzn-0 | 470-amzn-0 | 467-amzn-2 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-4 | 3.9.3-amzn-3 | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 

# 7.12.0 vulnérabilités et expositions courantes
<a name="7120-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a pas d'impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.12.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 13 novembre 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-GAMER-37865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-3\$137865  | 
|  CVE-GAMER-39135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-3\$139135  | 
|  CVE-2008-46337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-3\$146337  | 
|  CVE-2008-46337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-3\$146337  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2025-30065  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)-2025-30065  | 
|  CVE-2025-30065  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)-2025-30065  | 
|  CVE-2014-3643  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2014-3643)-2014-3643  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-0341  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-0341)-2021-0341  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$141404  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41404)-2\$141404  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-47561  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-9823  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-27553  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)-2025-27553  | 
|  CVE-2025-27817  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)-2025-27817  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2025-48734  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)-2025-48734  | 
|  CVE-2025-52434  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52434)-2025-52434  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-55163  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)-2025-55163  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-59250  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-59250)-2025-59250  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-23944  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-29025  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-31141  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-56128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2025-11226  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)-2025-11226  | 
|  CVE-2025-11226  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)-2025-11226  | 
|  CVE-2025-11226  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)-2025-11226  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-30474  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)-2025-30474  | 
|  CVE-2025-3588  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)-2025-3588  | 
|  CVE-2025-46392  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)-2025-46392  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-53864  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)-2025-53864  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-59419  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-59419)-2025-59419  | 
|  CVE-2025-59419  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-59419)-2025-59419  | 
|  CVE-2025-8885  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)-2025-8885  | 
|  CVE-2025-8885  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)-2025-8885  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2025-46551  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)-2025-46551  | 

## notes de mise à jour de la version 7.12.0
<a name="emr-7120-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.12.0 d'Amazon EMR.
+ **Nouvelles fonctionnalités**
  + **Stockage sans serveur pour EMR Serverless — Amazon EMR** Serverless introduit le stockage sans serveur, avec EMR version 7.12 et versions ultérieures, qui élimine le provisionnement de disques locaux pour les charges de travail Apache Spark. EMR Serverless gère automatiquement les opérations de données intermédiaires telles que le shuffle, sans frais de stockage. Le stockage sans serveur dissocie le stockage du calcul, ce qui permet à Spark de libérer les employés immédiatement lorsqu'ils sont inactifs plutôt que de les maintenir actifs pour préserver des données temporaires. Pour en savoir plus, veuillez consulter la section [aws.amazon.com/serverless-storage-for-emr-serverless](aws.amazon.com/serverless-storage-for-emr-serverless). 
  + Mises à niveau des **applications — Les mises à niveau** des applications Amazon EMR 7.12.0 incluent Delta 3.3.2-amzn-1, Flink 1.20.0-amzn-6, HBase 2.6.2-amzn-3, 3.1.3-amzn-21, Hadoop 3.4.1-amzn-4, Hive 3.1.3-amzn-21, Hudi 1.0.2-amzn-1, Iceberg 1.10.0-amzn-0, Presto 0.287-7 amzn-6, Spark 3.5.6-amzn-1, Tez 0.10.2-amzn-19, HCatalog Trino 476-amzn-1 et 3.9.3-amzn-4. ZooKeeper 
  + **Iceberg Materialized Views** - À partir d'Amazon EMR 7.12.0, Amazon EMR Spark prend en charge la création et la gestion des Iceberg Materialized Views (MV)
  + **Accès complet aux tables à Hudi** : depuis Amazon EMR 7.12.0, Amazon EMR prend désormais en charge le contrôle de l'accès complet aux tables (FTA) pour Apache Hudi dans Apache Spark en fonction de vos politiques définies dans Lake Formation. Cette fonctionnalité permet d'effectuer des opérations de lecture et d'écriture à partir de vos tâches Amazon EMR Spark sur les tables enregistrées de Lake Formation lorsque le rôle de tâche dispose d'un accès complet aux tables.
  + **Mise à niveau de la version d'Iceberg** - Amazon EMR 7.12.0 prend en charge la version 1.10 d'Apache Iceberg
  + **Bénéficiez d'un support FGAC natif à l'aide de Lake Formation** : vous pouvez effectuer DDL/DML des opérations (telles que CREATE, ALTER, DELETE, DROP) avec un contrôle d'accès précis pour les tables Apache Hive, Apache Iceberg et Delta Lake enregistrées dans Lake Formation.
  + **Contexte d'audit pour les tâches Spark** - À partir d'Amazon EMR 7.12.0, le contexte d'audit pour les tâches Amazon EMR Spark avec des clusters compatibles avec Lake Formation sera disponible pour les appels d'API Glue et AWS Lake Formation dans les journaux. CloudTrail 
  + Amazon EMR 7.12.0 améliore le processus d'authentification des informations d'identification de GetClusterSessionCredentials session, réduisant de manière significative la latence pour les sessions Livy Interactive et l'accès à l'interface utilisateur sur les clusters compatibles avec IAM Identity Center par rapport aux versions précédentes d'Amazon EMR.
  + Depuis la version 7.12.0 d'Amazon EMR, Amazon HBase EMR on S3 a ajouté une fonctionnalité de préchauffage entre lecture et réplication afin de simplifier les mises à niveau des versions d'Amazon EMR. Cette fonctionnalité peut être utilisée pour mettre à niveau des HBase clusters existants vers et depuis Amazon EMR version 7.12\$1
+ **Problèmes et limites connus**
  + **Compatibilité avec Athena SQL**
    + Athena SQL ne peut pas lire la table Iceberg de type V3 créée par Amazon EMR Spark en raison de l'erreur suivante : GENERIC\$1INTERNAL\$1ERROR : Impossible de lire la version 3 non prise en charge.
    + L'écriture de données à l'aide d'Amazon EMR Spark dans des tables Iceberg créées à l'aide d'Athena échoue en raison de l'erreur suivante : la propriété « write.object-storage.path » est devenue obsolète et sera supprimée dans la version 2.0, utilisez plutôt « write.data.path ».
  + **Iceberg Materialized Views (MV) -** Amazon EMR 7.12.0 prend en charge de manière limitée la clause View SQL pour la création de vues matérialisées, la réécriture des requêtes et l'actualisation incrémentielle. Vous trouverez plus de détails sur la page de documentation de la fonctionnalité Iceberg Materialized Views
  + Les **écritures Hudi FTA doivent être utilisées** HoodieCredentialedHadoopStorage pour la vente d'informations d'identification lors de l'exécution du travail. Définissez la configuration suivante lors de l'exécution des tâches Hudi :
    + `hoodie.storage.class=org.apache.spark.sql.hudi.storage.HoodieCredentialedHadoopStorage`
  + Le support d'écriture Hudi FTA ne fonctionne qu'avec les configurations Hudi par défaut. Les paramètres Hudi personnalisés ou autres que ceux par défaut peuvent ne pas être entièrement pris en charge et peuvent entraîner un comportement inattendu. Le clustering pour les tables Hudi Merge-On-Read (MOR) n'est pas non plus pris en charge en mode d'écriture FTA.
+ **Modifications, améliorations et problèmes résolus**
  + À partir de la version 7.12.0 d'EMR, EMR prend en charge le KMS Key ARN pour les journaux Spark hébergés par le service via un serveur d'historique Spark persistant. Les versions précédentes de l'EMR ne prenaient en charge que KeyID.
  + À partir de la version 7.12.0 d'EMR, EMR a résolu un problème lié à Hue qui empêchait l'utilisation d'un certificat SSL lors de l'hébergement de Hue sur des clusters EMR.

## Versions Java 7.12.0 par défaut
<a name="emr-7120-jdk"></a>

La version 7.12.0 d'Amazon EMR est fournie avec Amazon Corretto 17 (basé sur OpenJDK) par défaut pour les applications qui prennent en charge Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.12.0.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.12.0
<a name="emr-7120-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.3.2-amzn-1 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,21,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,25,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2,42,0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.21.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.6 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,73,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-6 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-6 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.1-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.1-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.1-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.1-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-zkfc | 3.4.1-amzn-4 | Service ZKFC pour le suivi des namenodes en mode HA. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.1-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.1-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.1-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.2-amzn-3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.2-amzn-3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.2-amzn-3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.2-amzn-3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.2-amzn-3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.2-amzn-3 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-21 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-21 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-21 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-21 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-21 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-21 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-21 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 1.0.2-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 1.0.2-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 1.0.2-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 1.0.2-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.10.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12,5.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.1 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-6 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-6 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-6 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 476-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 476-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 476-amzn-1 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3,5,6-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3,5,6-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3,5,6-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3,5,6-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 25.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.19.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-19 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-19 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.3-amzn-4 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.3-amzn-4 | ZooKeeper client en ligne de commande. | 

## 7.12.0 classifications de configuration
<a name="emr-7120-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.12.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | Modifiez les valeurs dans le fichier HBase hbase-log4j2.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| cloudwatch-logs | Configurez l'intégration CloudWatch des journaux pour les nœuds du cluster EMR. | Not available. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.12.0
<a name="7120-changelog"></a>


**Journal des modifications pour la version 7.12.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/11/2025 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.12.0 publiées pour la première fois | 

# Amazon EMR version 7.11.0
<a name="emr-7110-release"></a>

## Cycle de vie pris en charge en 7.11.0
<a name="emr-7110-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.11.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 03 novembre 2025 | 
| Support standard jusqu'à | 3 novembre 2027 | 
| Fin de l'assistance | 04 novembre 2027 | 
| Fin de vie | 03 novembre 2028 | 

## Versions de l'application 7.11.0
<a name="emr-7110-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.11.0 | emr-7.10.0 | emr-7,9.0 | emr-7,8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,35,5, 1,12,792 | 2,31,48, 1,12,782 | 2,31,16, 1,12,782 | 2,29,52, 1,12,780 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.3.2-amzn-0 | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 
| Flink | 1,20,0-amzn-5 | 1,20,0-amzn-4 | 1,20,0-amzn-3 | 1,20,0-amzn-2 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-2 | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 
| HCatalog | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 
| Hadoop | 3.4.1-amzn-3 | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 
| Hive | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 
| Hudi | 1.0.2-amzn-0 | 0,15,0-amzn-7 | 0,15,0-amzn-6 | 0,15,0-amzn-5 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.9.1-amzn-0 | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-5 | 0,287-amzn-4 | 0,287-amzn-3 | 0,287-amzn-2 | 
| Spark | 3,5,6-amzn-0 | 3,5,5-amzn-1 | 3,5,5-amzn-0 | 3,5,4-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.19.0 | 2.18.0 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-18 | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 
| Trino (PrestoSQL) | 475-amzn-0 | 470-amzn-0 | 467-amzn-2 | 467-amzn-1 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-3 | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 

# 7.11.0 vulnérabilités et risques courants
<a name="7110-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.11.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 18 novembre 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-GAMER-37865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-3\$137865  | 
|  CVE-GAMER-39135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-3\$139135  | 
|  CVE-2008-46337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-3\$146337  | 
|  CVE-2008-46337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-3\$146337  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2025-30065  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)-2025-30065  | 
|  CVE-2014-3643  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2014-3643)-2014-3643  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-0341  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-0341)-2021-0341  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$141404  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41404)-2\$141404  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-9823  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-27553  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)-2025-27553  | 
|  CVE-2025-27817  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)-2025-27817  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2025-48734  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)-2025-48734  | 
|  CVE-2025-52434  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52434)-2025-52434  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-55163  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)-2025-55163  | 
|  CVE-2025-55163  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)-2025-55163  | 
|  CVE-2025-55163  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)-2025-55163  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-59250  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-59250)-2025-59250  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-23944  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-29025  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-31141  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-56128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2025-11226  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)-2025-11226  | 
|  CVE-2025-11226  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)-2025-11226  | 
|  CVE-2025-11226  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)-2025-11226  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-30474  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)-2025-30474  | 
|  CVE-2025-3588  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)-2025-3588  | 
|  CVE-2025-46392  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)-2025-46392  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-53864  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)-2025-53864  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-59419  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-59419)-2025-59419  | 
|  CVE-2025-8885  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)-2025-8885  | 
|  CVE-2025-8885  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)-2025-8885  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2025-46551  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)-2025-46551  | 

## notes de mise à jour de la version 7.11.0
<a name="emr-7110-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.11.0 d'Amazon EMR.
+ **Nouvelles fonctionnalités**
  + Mises à niveau des **applications — Les mises à niveau** des applications Amazon EMR 7.11.0 incluent Delta 3.3.2-amzn-0, Flink 1.20.0-amzn-5, HBase 2.6.2-amzn-2, 3.1.3-amzn-20, Hadoop 3.4.1-amzn-3, Hive HCatalog 3.1.3-amzn-20, Hudi 1.0.2-amzn-0, Iceberg 1.9.1-amzn-0, Presto 0.287-0 amzn-5, Spark 3.5.6-amzn-0, 2.19.0, Tez 0.10.2-amzn-18, Trino 475-amzn-0 et 3.9.3-amzn-3. TensorFlow ZooKeeper 
  + Amazon EMR sur EC2 prend désormais en charge les sessions d'arrière-plan des utilisateurs d'IAM Identity Center
    + **Sessions d'arrière-plan utilisateur** : permet aux charges de travail Spark de longue durée de continuer à s'exécuter même après que les utilisateurs se soient déconnectés d' SageMaker Unified Studio, ce qui permet de prendre en charge des sessions allant jusqu'à 90 jours
    + Configuration **flexible des sessions en arrière-plan : configuration** à deux niveaux (instance IAM Identity Center et cluster Amazon EMR-EC2) avec une durée de session d'arrière-plan personnalisable de 15 minutes à 90 jours (par défaut : 7 jours)
    + **Propagation d'identité fiable** : maintient un contexte d'identité sécurisé tout au long du cycle de vie des sessions en arrière-plan grâce à la fonction de propagation d'identité fiable d'Amazon EMR
    + **SageMaker Intégration à Unified Studio** : sessions d'arrière-plan initiées via des sessions interactives Livy dans SageMaker Unified Studio
  + **Sessions de longue durée avec des identités d'entreprise** : Amazon SageMaker Unified Studio prend désormais en charge les sessions de longue durée avec des identités d'entreprise par le biais de la technologie Trusted Identity Propagation (TIP) d'IAM Identity Center. Les utilisateurs peuvent lancer des blocs-notes interactifs et des sessions de traitement de données sur Amazon EMR et AWS Glue qui persistent en utilisant les informations d'identification de l'entreprise, même lorsqu'ils sont déconnectés ou que les sessions expirent. Les sessions durent jusqu'à 90 jours (7 jours par défaut) tout en maintenant les autorisations d'identité et les contrôles de sécurité cohérents.

## Versions Java 7.11.0 par défaut
<a name="emr-7110-jdk"></a>

La version 7.11.0 d'Amazon EMR est fournie avec Amazon Corretto 17 (basé sur OpenJDK) par défaut pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.11.0.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.11.0
<a name="emr-7110-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.3.2-amzn-0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,20,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,24,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2,41,0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.20.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.5 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,72,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-5 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-5 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.1-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.1-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.1-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.1-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-zkfc | 3.4.1-amzn-3 | Service ZKFC pour le suivi des namenodes en mode HA. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.1-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.1-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.1-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.2-amzn-2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.2-amzn-2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.2-amzn-2 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.2-amzn-2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.2-amzn-2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.2-amzn-2 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-20 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-20 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-20 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-20 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-20 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-20 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-20 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 1.0.2-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 1.0.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 1.0.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 1.0.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.9.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12,5.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.1 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-5 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-5 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-5 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 475-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 475-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 475-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3,5,6-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3,5,6-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3,5,6-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3,5,6-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 25.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.19.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-18 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-18 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.3-amzn-3 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.3-amzn-3 | ZooKeeper client en ligne de commande. | 

## 7.11.0 classifications de configuration
<a name="emr-7110-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.11.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | Modifiez les valeurs dans le fichier HBase hbase-log4j2.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| cloudwatch-logs | Configurez l'intégration CloudWatch des journaux pour les nœuds du cluster EMR. | Not available. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.11.0
<a name="7110-changelog"></a>


**Journal des modifications pour la version 7.11.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 12/11/2025 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.11.0 publiées pour la première fois | 

# Amazon EMR version 7.10.0
<a name="emr-7100-release"></a>

## Cycle de vie pris en charge en version 7.10.0
<a name="emr-7100-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.10.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 15 août 2025 | 
| Support standard jusqu'à | 15 août 2027 | 
| Fin de l'assistance | 16 août 2027 | 
| Fin de vie | 15 août 2028 | 

## Versions de l'application 7.10.0
<a name="emr-7100-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.10.0 | emr-7,9.0 | emr-7,8.0 | emr-7,7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,31,48, 1,12,782 | 2,31,16, 1,12,782 | 2,29,52, 1,12,780 | 2,29,44, 1,12,780 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 
| Flink | 1,20,0-amzn-4 | 1,20,0-amzn-3 | 1,20,0-amzn-2 | 1,20,0-amzn-1 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 
| HCatalog | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 
| Hadoop | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 
| Hive | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 
| Hudi | 0,15,0-amzn-7 | 0,15,0-amzn-6 | 0,15,0-amzn-5 | 0,15,0-amzn-4 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-4 | 0,287-amzn-3 | 0,287-amzn-2 | 0,287-amzn-1 | 
| Spark | 3,5,5-amzn-1 | 3,5,5-amzn-0 | 3,5,4-amzn-0 | 3.5.3-amzn-1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.18.0 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 
| Trino (PrestoSQL) | 470-amzn-0 | 467-amzn-2 | 467-amzn-1 | 467-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 

# 7.10.0 vulnérabilités et expositions courantes
<a name="7100-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.10.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 25 septembre 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$142889  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52577  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52577)-2024-52577  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2024-56325  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56325)-2024-56325  | 
|  CVE-2025-30065  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)-2025-30065  | 
|  CVE-2014-3643  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2014-3643)-2014-3643  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$141404  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41404)-2\$141404  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-29131  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-47561  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-57699  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-57699)-2024-57699  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-9823  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 
|  CVE-2025-1948  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-1948)-2025-1948  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-27553  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)-2025-27553  | 
|  CVE-2025-27817  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)-2025-27817  | 
|  CVE-2025-27817  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)-2025-27817  | 
|  CVE-2025-27817  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)-2025-27817  | 
|  CVE-2025-27820  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)-2025-27820  | 
|  CVE-2025-27820  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)-2025-27820  | 
|  CVE-2025-30706  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30706)-2025-30706  | 
|  CVE-2025-30706  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30706)-2025-30706  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2025-48734  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)-2025-48734  | 
|  CVE-2025-48734  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)-2025-48734  | 
|  CVE-2025-49146  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49146)-2025-49146  | 
|  CVE-2025-5115  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-5115)-2025-5115  | 
|  CVE-2025-52434  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52434)-2025-52434  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-52999  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)-2025-52999  | 
|  CVE-2025-55163  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)-2025-55163  | 
|  CVE-2025-55163  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)-2025-55163  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58056  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)-2025-58056  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2025-58057  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)-2025-58057  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-23944  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-29025  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29133  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-31141  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-52980  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52980)-2024-52980  | 
|  CVE-2024-56128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2025-22227  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-22227)-2025-22227  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-30474  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)-2025-30474  | 
|  CVE-2025-3588  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)-2025-3588  | 
|  CVE-2025-46392  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)-2025-46392  | 
|  CVE-2025-46551  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)-2025-46551  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-48924  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)-2025-48924  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-49128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)-2025-49128  | 
|  CVE-2025-53864  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)-2025-53864  | 
|  CVE-2025-53864  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)-2025-53864  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-58457  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)-2025-58457  | 
|  CVE-2025-8885  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)-2025-8885  | 
|  CVE-2025-8885  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)-2025-8885  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2025-8916  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)-2025-8916  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2025-27496  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27496)-2025-27496  | 

## notes de mise à jour de la version 7.10.0
<a name="emr-7100-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.10.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.10.0 application upgrades include AWS SDK for Java 2.31.48/1.12.782, Delta 3.3.0-amzn-2, Hadoop 3.4.1-amzn-2, Hudi 0.15.0-amzn-7, Iceberg 1.8.1-amzn-0, Spark 3.5.5-amzn-1, and Zookeeper 3.9.3-amzn-2.
+ **Système de fichiers S3A** — À partir de la version EMR 7.10.0, le système de fichiers S3A a remplacé EMRFS en tant que connecteur EMR S3 par défaut. Pour plus d'informations, consultez le [Guide de migration : EMRFS vers le système de fichiers S3A](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-s3a-migrate.html).
+ **Support de streaming de Spark Kafka** : à partir de la version EMR 7.10.0 aws-msk-iam-auth, les dépendances 2.3.2 et commons-pool2 2.11.1 sont incluses pour les charges de travail de streaming Spark avec des sources de données Kafka. Ils JARs sont disponibles lorsque l'application Spark est sélectionnée lors du lancement du cluster.
+ **Connecteurs de streaming Flink** — À partir de la version EMR 7.10.0, les versions 3.4.0 flink-sql-connector-kafka flink-sql-connector-kinesis, 5.0.0 aws-msk-iam-auth et 2.3.2 sont incluses pour les charges de travail de streaming Flink avec les sources de données Kafka et Kinesis. Ces connecteurs JARs sont disponibles lorsque l'application Flink est sélectionnée lors du lancement du cluster.

**Problèmes connus**
+ **État ACCEPTÉ — L'**application YARN est bloquée dans l'état ACCEPTÉ en raison du bogue open source [YARN-11834](https://issues.apache.org/jira/browse/YARN-11834). Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+ **ConcurrentModificationException exception** [— YARN redémarre fréquemment, ConcurrentModificationException sauf exception due au bogue open source YARN-11838.](https://issues.apache.org/jira/browse/YARN-11838) Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+ **Journaux des applications YARN : les journaux** des applications YARN ne sont pas visibles dans l'interface utilisateur du gestionnaire de ressources. Pour résoudre le problème, procédez comme suit :

  1. Mettez à jour la `yarn.log.server.url` configuration dans le fichier yarn-site.xml avec la valeur suivante :

     ```
     <property>
       <name>yarn.log.server.url</name>
       <value>https://<private-dns-master-node>:19890/jobhistory/logs</value>
     </property>
     ```

  1. Redémarrez le service du gestionnaire de ressources Hadoop : `systemctl restart hadoop-resourcemanager.service`
+ **Téléchargement des journaux d'étapes** : certains clusters peuvent ne pas être en mesure de télécharger les journaux d'étapes dans votre compartiment S3 en raison d'une course. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.
+ Libérez les labels et les régions prises en charge.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-7100-release.html)

## Versions Java 7.10.0 par défaut
<a name="emr-7100-jdk"></a>

Les versions 7.10 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.10.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.10.0
<a name="emr-7100-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.3.0-amzn-2 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,19,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,23,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.40.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.19.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.4 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,71,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-4 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-4 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.1-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.1-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.1-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.1-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.1-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.1-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.1-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.2-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.2-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.2-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.2-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.2-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.2-amzn-1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-19 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-19 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-19 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-19 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-19 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-19 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-19 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-7 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-7 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-7 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-7 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.8.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12,5.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.1 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-4 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-4 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-4 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 470-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 470-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 470-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3,5,5-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3,5,5-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3,5,5-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3,5,5-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 3,5,5-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.18.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-17 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-17 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.3-amzn-2 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.3-amzn-2 | ZooKeeper client en ligne de commande. | 

## 7.10.0 classifications de configuration
<a name="emr-7100-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications emr-7.10.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | Modifiez les valeurs dans le fichier HBase hbase-log4j2.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.10.0
<a name="7100-changelog"></a>


**Journal des modifications pour la version 7.10.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 15/08/2025 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.10.0 publiées pour la première fois | 
| 15/08/2025 | Déploiement terminé | [Amazon EMR 7.10.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 15/08/2025 | Version limitée initiale | Amazon EMR 7.10.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.9.0
<a name="emr-790-release"></a>

## Cycle de vie pris en charge en 7.9.0
<a name="emr-790-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.9.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 19 mai 2025 | 
| Support standard jusqu'à | 19 mai 2027 | 
| Fin de l'assistance | 20 mai 2027 | 
| Fin de vie | 19 mai 2028 | 

## Versions de l'application 7.9.0
<a name="emr-790-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7,9.0 | emr-7,8.0 | emr-7,7.0 | emr-7.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,31,16, 1,12,782 | 2,29,52, 1,12,780 | 2,29,44, 1,12,780 | 2,29,25, 1,12,779 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 
| Flink | 1,20,0-amzn-3 | 1,20,0-amzn-2 | 1,20,0-amzn-1 | 1,20,0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 
| HCatalog | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 
| Hadoop | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 
| Hive | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 
| Hudi | 0,15,0-amzn-6 | 0,15,0-amzn-5 | 0,15,0-amzn-4 | 0,15,0-amzn-3 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-3 | 0,287-amzn-2 | 0,287-amzn-1 | 0,287-amzn-1 | 
| Spark | 3,5,5-amzn-0 | 3,5,4-amzn-0 | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 
| Trino (PrestoSQL) | 467-amzn-2 | 467-amzn-1 | 467-amzn-0 | 457-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 

# 7.9.0 vulnérabilités et risques courants
<a name="790-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.9.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 12 mai 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$142889  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52577  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52577)-2024-52577  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2024-56325  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56325)-2024-56325  | 
|  CVE-2025-30065  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)-2025-30065  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-13009  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)-2024-13009  | 
|  CVE-2024-29131  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-47561  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-57699  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-57699)-2024-57699  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2025-1948  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-1948)-2025-1948  | 
|  CVE-2025-1948  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-1948)-2025-1948  | 
|  CVE-2025-24789  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24789)-2025-24789  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-27553  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)-2025-27553  | 
|  CVE-2025-27820  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)-2025-27820  | 
|  CVE-2025-27820  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)-2025-27820  | 
|  CVE-2025-46762  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)-2025-46762  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-23944  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-23953  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-29025  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29133  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-29869  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-31141  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-43382  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-43382)-2024-43382  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-52980  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52980)-2024-52980  | 
|  CVE-2024-56128  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2024-9823  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 
|  CVE-2025-24790  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24790)-2025-24790  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-30474  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)-2025-30474  | 
|  CVE-2025-3588  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)-2025-3588  | 
|  CVE-2025-46551  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)-2025-46551  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2025-27496  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-27496)-2025-27496  | 
|  CVE-2025-46392  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)-2025-46392  | 

## notes de mise à jour de la 7.9.0
<a name="emr-790-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.9.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.9.0 application upgrades include AWS SDK for Java 2.31.16/1.12.782, Delta 3.3.0-amzn-1, Hadoop 3.4.1, Hudi 0.15.0-amzn-6, Iceberg 1.7.1-amzn-2, Spark 3.5.5, and Zookeeper 3.9.3.
+ **Support CM-CMK pour l'interface utilisateur persistante de l'application** : cette fonctionnalité étend le chiffrement SSE appliqué aux journaux gérés dans le compartiment de service EMR afin de respecter la clé principale personnalisée gérée par le client (CM-CMK). Cette fonctionnalité permet aux clients de gérer l'accessibilité des journaux après la fin de leurs clusters.

**Problèmes connus**
+ Lorsque l'option de journalisation pour EMR sur EC2 est désactivée, les journaux ne sont pas disponibles après la fermeture du cluster et l'application persistante UIs ne contient aucun journal.
+ **Chiffrement KMS à l'aide du SecretAgent composant EMR-EC2** : une erreur se produit lorsque le chiffrement KMS au repos est activé pour les clusters compatibles avec Lake Formation dans les versions EMR 7.8 et 7.9. Les tâches compatibles avec Lake Formation échoueront avec un. *NoSuchMethodError* Deux solutions de contournement sont disponibles :
  + Désactivez temporairement le chiffrement KMS au repos pour les clusters concernés.
  + Contactez le AWS Support pour demander un artefact Bootstrap Action si le chiffrement KMS doit être maintenu.
**Note**  
**Correctif permanent** — En août 2025, une mise à jour visant à résoudre le problème ci-dessus a été déployée dans toutes les régions. Il n'est pas nécessaire de désactiver le chiffrement KMS au repos.
+ **Téléchargement des journaux d'étapes** : certains clusters peuvent ne pas être en mesure de télécharger les journaux d'étapes dans votre compartiment S3 en raison d'une course. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ *Obsolète d'Oozie — OSS* Oozie étant passé en mode attique, Apache Oozie sera supprimé de la série Amazon EMR version 8.x. Oozie sera toujours inclus dans la série 7.x. Nous vous recommandons d'utiliser MWAA comme alternative à Oozie. Les clients peuvent se référer à l'utilitaire pour GitHub migrer [oozie-to-airflow-emr](https://github.com/dgghosalaws/oozie-to-airflow-emr)les flux de travail Oozie existants vers MWAA.
+ *Emballage de conteneurs YARN* — À partir de la version 7.9.0 d'Amazon EMR, la politique d'emballage de conteneurs est désormais disponible pour le planificateur de capacité YARN, qui repose sur la politique de placement de nœuds multiples de YARN.
+  Le script *hudi-cli.sh* — Le script **hudi-cli.sh** est devenu obsolète dans les versions 7.9.0 et supérieures d'EMR. **Les versions 7.9.0 et supérieures d'Amazon EMR utilisent le fichier .jar. hudi-cli-bundle** 
+ *Clusters EMR sur une AL2023 AMI compatible FIPS* [: à partir d'EMR 7.9, les clients peuvent lancer des clusters EMR sur une AMI compatible FIPS. AL2023 ](https://docs.aws.amazon.com/linux/al2023/ug/fips-mode.html) Cette modification met à jour les signatures numériques et les algorithmes de hachage d'EMR afin de garantir que tous les packages EMR respectent les politiques cryptographiques recommandées pour la norme FIPS 140-3. Remarque : Cela ne couvre pas le statut de certification FIPS de l'EMR AL2023 ou - reportez-vous [AL2023 à la FAQ FIPS pour obtenir les dernières informations sur le statut de validation de la norme FIPS](https://aws.amazon.com/linux/amazon-linux-2023/faqs/) 140-3.
+  *Latence par étapes* — Cette version résout un problème selon lequel la latence des étapes augmentait lors de l'utilisation du chiffrement en transit sans sélectionner explicitement l'application Hadoop à installer. 
+  *Lancement de clusters avec des volumes chiffrés EBS* : cette version résout un problème selon lequel un appel KMS sur des volumes chiffrés par EBS pouvait entraîner l'échec du lancement d'un cluster EMR. 
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-790-release.html)

## Versions Java 7.9.0 par défaut
<a name="emr-790-jdk"></a>

Les versions 7.9 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.9.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.9.0
<a name="emr-790-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.3.0-amzn-1 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,18,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,22,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.39.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.18.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.4 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,70,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-3 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.1-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.1-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.1-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.1-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.1-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.1-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.1-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.2-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.2-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.2-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.2-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.2-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.2-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-18 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-18 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-18 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-18 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-18 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-18 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-18 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-6 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-6 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-6 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-6 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.7.1-amzn-2 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.1 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-3 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-3 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-3 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 467-amzn-2 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 467-amzn-2 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 467-amzn-2 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3,5,5-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3,5,5-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3,5,5-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3,5,5-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 25.02.1-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-16 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-16 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.3-amzn-1 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.3-amzn-1 | ZooKeeper client en ligne de commande. | 

## 7.9.0 classifications de configuration
<a name="emr-790-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.9.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | Modifiez les valeurs dans le fichier HBase hbase-log4j2.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications de la version 7.9.0
<a name="790-changelog"></a>


**Journal des modifications pour la version 7.9.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 19/05/2025-05 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.9.0 publiées pour la première fois | 
| 19/05/2025-05 | Déploiement terminé | [Amazon EMR 7.9.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 19/05/2025-05 | Version limitée initiale | Amazon EMR 7.9.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.8.0
<a name="emr-780-release"></a>

## Cycle de vie pris en charge en 7.8.0
<a name="emr-780-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.8.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 07 mars 2025 | 
| Support standard jusqu'à | 6 mars 2027 | 
| Fin de l'assistance | 7 mars 2027 | 
| Fin de vie | 7 mars 2028 | 

## Versions de l'application 7.8.0
<a name="emr-780-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7,8.0 | emr-7,7.0 | emr-7.6.0 | emr-7.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,29,52, 1,12,780 | 2,29,44, 1,12,780 | 2,29,25, 1,12,779 | 2,28,8, 1,12,772 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 
| Flink | 1,20,0-amzn-2 | 1,20,0-amzn-1 | 1,20,0-amzn-0 | 1.19.1-amzn-1 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 
| HCatalog | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 
| Hadoop | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 
| Hive | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 
| Hudi | 0,15,0-amzn-5 | 0,15,0-amzn-4 | 0,15,0-amzn-3 | 0,15,0-amzn-2 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-2 | 0,287-amzn-1 | 0,287-amzn-1 | 0,287-amzn-0 | 
| Spark | 3,5,4-amzn-0 | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 
| Trino (PrestoSQL) | 467-amzn-1 | 467-amzn-0 | 457-amzn-0 | 446-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 

# Détails des composants de la version 7.8.0
<a name="emr-780-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.7.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 38 - 1 h 00  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.3-amzn-0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.3-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0,15.0-amzn-5-1. amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 38 - 1 h 00  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |    | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3-amzn-17-1.amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  3.1.3-amzn-17-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 38 - 1 h 00  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 38 - 1 h 00  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.3.amzn.1-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.1-amzn-0-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.17-1. amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.17-1. amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.17-1. amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.17-1. amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.9.3. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.1. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.8.0 vulnérabilités et risques courants
<a name="780-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.8.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 6 mars 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$142889  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13936  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2019-10219  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10219)-2019-10219  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-10693  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10693)-2020-10693  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-29582  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-29582)-2020-29582  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2021-38153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)-2021-38153  | 
|  CVE-2\$124329  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)-2\$124329  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-20863  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-38820  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)-2024-38820  | 
|  CVE-2024-38820  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)-2024-38820  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  GHSA-CHFM-68VV-PVW5  |  BAS  |  [https://nvd.nist. gov/vuln/detail/GHSA-chfm-68vv-pvw5](https://nvd.nist.gov/vuln/detail/GHSA-chfm-68vv-pvw5)  | 
|  CVE-2024-23454  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)-2024-23454  | 
|  CVE-2024-23944  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23945  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23953  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-23953  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-27137  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-27137)-2024-27137  | 
|  CVE-2024-29025  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29131  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-29133  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29869  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-29869  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30172  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-30172  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-31141  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-31141  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-34447  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-34447  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-38808  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)-2024-38808  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-51504  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-56128  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-56128  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-57699  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-57699)-2024-57699  | 
|  CVE-2024-9823  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 
|  CVE-2025-23015  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-23015)-2025-23015  | 
|  CVE-2025-24860  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24860)-2025-24860  | 
|  CVE-2025-24970  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-24970  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)-2025-24970  | 
|  CVE-2025-25193  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 
|  CVE-2025-25193  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)-2025-25193  | 

## notes de mise à jour de la 7.8.0
<a name="emr-780-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.8.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.8.0 application upgrades include AWS SDK for Java 2.29.52/1.12.780, Delta 3.3.0-amzn-0, Hadoop 3.4.1, Hudi 0.15.0-amzn-5, Iceberg 1.7.1-amzn-1, Spark 3.5.4, and Zookeeper 3.9.3.

**Problèmes connus**
+ **Chiffrement KMS à l'aide du SecretAgent composant EMR-EC2** : une erreur se produit lorsque le chiffrement KMS au repos est activé pour les clusters compatibles avec Lake Formation dans les versions EMR 7.8 et 7.9. Les tâches compatibles avec Lake Formation échoueront avec un. *NoSuchMethodError* Deux solutions de contournement sont disponibles :
  + Désactivez temporairement le chiffrement KMS au repos pour les clusters concernés.
  + Contactez le AWS Support pour demander un artefact Bootstrap Action si le chiffrement KMS doit être maintenu.
**Note**  
**Mise à jour corrective** — En août 2025, une mise à jour visant à résoudre le problème ci-dessus a été déployée dans toutes les régions. Il n'est pas nécessaire de désactiver le chiffrement KMS au repos.
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-780-release.html)

## Versions Java par défaut 7.8.0
<a name="emr-780-jdk"></a>

Les versions 7.8 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.8.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.8.0
<a name="emr-780-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.3.0-amzn-0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,17,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,21,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.38.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.17.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.3 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,69,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.1-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.1-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.1-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.1-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-0 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.1-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.1-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.1-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.1-amzn-2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.1-amzn-2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.1-amzn-2 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.1-amzn-2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.1-amzn-2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.1-amzn-2 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-17 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-17 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-17 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-17 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-17 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-17 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-17 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-5 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-5 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-5 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-5 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.7.1-amzn-1 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.1 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-2 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-2 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-2 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 467-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 467-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 467-amzn-1 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3,5,4-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3,5,4-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3,5,4-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3,5,4-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-15 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-15 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.3-amzn-0 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.3-amzn-0 | ZooKeeper client en ligne de commande. | 

## 7.8.0 classifications de configuration
<a name="emr-780-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.8.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications de la version 7.8.0
<a name="780-changelog"></a>


**Journal des modifications pour la version 7.8.0 et les notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 07/03/2025 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.8.0 publiées pour la première fois | 
| 06/03/2025 | Déploiement terminé | [Amazon EMR 7.8.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 28/02/2025 | Version limitée initiale | Amazon EMR 7.8.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.7.0
<a name="emr-770-release"></a>

## Cycle de vie pris en charge en 7.7.0
<a name="emr-770-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.7.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 6 février 2025 | 
| Support standard jusqu'à | 5 février 2027 | 
| Fin de l'assistance | 6 février 2027 | 
| Fin de vie | 6 février 2028 | 

## Versions de l'application 7.7.0
<a name="emr-770-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7,7.0 | emr-7.6.0 | emr-7.5.0 | emr-7.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,29,44, 1,12,780 | 2,29,25, 1,12,779 | 2,28,8, 1,12,772 | 2,28,8, 1,12,772 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 
| Flink | 1,20,0-amzn-1 | 1,20,0-amzn-0 | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 2,5,5-amzn-0 | 
| HCatalog | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 
| Hadoop | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 
| Hive | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 
| Hudi | 0,15,0-amzn-4 | 0,15,0-amzn-3 | 0,15,0-amzn-2 | 0,15,0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-1 | 0,287-amzn-1 | 0,287-amzn-0 | 0,287-amzn-0 | 
| Spark | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 
| Sqoop |  -  |  -  |  -  | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 
| Trino (PrestoSQL) | 467-amzn-0 | 457-amzn-0 | 446-amzn-0 | 446-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 

# Détails des composants de la version 7.7.0
<a name="emr-770-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.7.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.0-amzn-3-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  de 2 h 37 à 1 h du mois 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0.15.0.amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  de 2 h 37 à 1 h du mois 2023  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |    | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3. amzn.16-1.amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  de 2 h 37 à 1 h du mois 2023  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  de 2 h 37 à 1 h du mois 2023  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.3.amzn.1-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.16-1.amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.16-1.amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.16-1.amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.16-1.amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.9.2. amzn.1-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.7.0 vulnérabilités et risques courants
<a name="770-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.7.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 4 février 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$142889  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2013-4002  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13936  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-43859  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)-2021-43859  | 
|  CVE-2\$11415  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)-2\$11415  | 
|  CVE-2\$11415  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)-2\$11415  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140151  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)-2\$140151  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$141966  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-4/1966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145688  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-36478  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-50387  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-52428  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)-2024-21634  | 
|  CVE-2024-35178  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-35178)-2024-35178  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2009-2625  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2009-2625)-2009-2625  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2017-10355  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-10355)-2017-10355  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2018-2799  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-2799)-2018-2799  | 
|  CVE-2019-10219  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10219)-2019-10219  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-10693  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10693)-2020-10693  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-14338  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14338)-2020-14338  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-29582  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-29582)-2020-29582  | 
|  CVE-2021-21290  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)-2021-21290  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2021-37533  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)-2021-37533  | 
|  CVE-2021-38153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)-2021-38153  | 
|  CVE-2\$123437  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-23437)-2\$123437  | 
|  CVE-2\$124329  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)-2\$124329  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-20863  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-26048  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26048](https://nvd.nist.gov/vuln/detail/CVE-2023-26048)  | 
|  CVE-2023-26049  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-39968  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39968](https://nvd.nist.gov/vuln/detail/CVE-2023-39968)  | 
|  CVE-2023-40167  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-40167](https://nvd.nist.gov/vuln/detail/CVE-2023-40167)  | 
|  CVE-2023-40170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-40170](https://nvd.nist.gov/vuln/detail/CVE-2023-40170)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-49080  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-49080](https://nvd.nist.gov/vuln/detail/CVE-2023-49080)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-38820  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)-2024-38820  | 
|  CVE-2024-38820  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)-2024-38820  | 
|  CVE-2024-43805  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-43805)-2024-43805  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2\$12047  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-2047)-2\$12047  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  GHSA-58QW-P7QM-5RVH  |  BAS  |  [https://nvd.nist. gov/vuln/detail/GHSA-58 qw-p7qm-5rvh](https://nvd.nist.gov/vuln/detail/GHSA-58qw-p7qm-5rvh)  | 
|  GHSA-CHFM-68VV-PVW5  |  BAS  |  [https://nvd.nist. gov/vuln/detail/GHSA-chfm-68vv-pvw5](https://nvd.nist.gov/vuln/detail/GHSA-chfm-68vv-pvw5)  | 
|  CVE-2023-50868  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2024-23454  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)-2024-23454  | 
|  CVE-2024-23454  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)-2024-23454  | 
|  CVE-2024-23944  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23944  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23944  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-23953  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)-2024-23953  | 
|  CVE-2024-25638  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)-2024-25638  | 
|  CVE-2024-27137  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-27137)-2024-27137  | 
|  CVE-2024-29025  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29131  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-29131  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-29133  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-29133  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-29869  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)-2024-29869  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30172  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-30172  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-31141  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-31141  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-34447  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-34447  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-38808  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)-2024-38808  | 
|  CVE-2024-43382  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-43382)-2024-43382  | 
|  CVE-2024-47072  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47072)-2024-47072  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-51504  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-51504  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-56128  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-56128  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-9823  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 
|  CVE-2025-23015  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-23015)-2025-23015  | 
|  CVE-2025-24789  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24789)-2025-24789  | 
|  CVE-2025-24790  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24790)-2025-24790  | 
|  CVE-2025-24860  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2025-24860)-2025-24860  | 

## notes de mise à jour de la 7.7.0
<a name="emr-770-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.7.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.7.0 application upgrades include Delta 3.2.1-amzn-2, Hudi 0.15.0-amzn-4, Iceberg 1.7.1-amzn-0, and Trino 467.

**Problèmes connus**
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ La version d'Iceberg utilisée depuis EMR 7.7.0 ne prend plus en charge Java 8. En outre, Iceberg est exclu des images Java 8 suivantes : `emr-7.7.0-java8-latest` et`emr-7.7.0-spark-rapids-java8-latest`.
+ Lake Formation pour le FGAC avec Amazon EMR sur EKS — Avec les versions 7.7 et supérieures d'Amazon EMR, vous pouvez tirer parti de Lake AWS Formation pour appliquer des contrôles d'accès précis aux tables du catalogue de données soutenues par Amazon S3. Cette fonctionnalité vous permet de configurer des contrôles d'accès au niveau des tables, des lignes, des colonnes et des cellules pour les requêtes de lecture dans votre Amazon EMR on EKS Spark Jobs. Pour plus d'informations, consultez la section [Utilisation d'Amazon Amazon EMR sur EKS avec AWS Lake Formation pour un contrôle d'accès précis.](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/security_iam_fgac-lf.html)
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-770-release.html)

## Versions Java 7.7.0 par défaut
<a name="emr-770-jdk"></a>

Les versions 7.7 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.7.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.7.0
<a name="emr-770-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.2.1-amzn-2 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,16,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,20,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.37.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.16.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.2 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,68,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.0-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.0-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.0-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.0-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.0-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.0-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.0-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.1-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.1-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.1-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.1-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.1-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.1-amzn-1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-16 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-16 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-16 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-16 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-16 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-16 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-16 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-4 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-4 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-4 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-4 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.7.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.1 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 467-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 467-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 467-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.3-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.3-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.3-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.3-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.10.1-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-14 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-14 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.2-amzn-1 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.2-amzn-1 | ZooKeeper client en ligne de commande. | 

## 7.7.0 classifications de configuration
<a name="emr-770-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.7.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications de la version 7.7.0
<a name="770-changelog"></a>


**Journal des modifications pour la version 7.7.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 07/02/2025 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.7.0 publiées pour la première fois | 
| 06/02/2025 | Déploiement terminé | [Amazon EMR 7.7.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 30-01-2025 | Version limitée initiale | Amazon EMR 7.7.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.6.0
<a name="emr-760-release"></a>

## Cycle de vie pris en charge en 7.6.0
<a name="emr-760-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.6.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 10 janvier 2025 | 
| Support standard jusqu'à | 09 janvier 2027 | 
| Fin de l'assistance | 10 janvier 2027 | 
| Fin de vie | 10 janvier 2028 | 

## Versions de l'application 7.6.0
<a name="emr-760-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.6.0 | emr-7.5.0 | emr-7.4.0 | emr-7.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,29,25, 1,12,779 | 2,28,8, 1,12,772 | 2,28,8, 1,12,772 | 2,25,70, 1,12,747 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,18 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 
| Flink | 1,20,0-amzn-0 | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 1,18.1-amzn-2 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 2,5,5-amzn-0 | 2,4,17-amzn-7 | 
| HCatalog | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 
| Hadoop | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 
| Hive | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 
| Hudi | 0,15,0-amzn-3 | 0,15,0-amzn-2 | 0,15,0-amzn-1 | 0,15,0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-1 | 0,287-amzn-0 | 0,287-amzn-0 | 0,285-amzn-1 | 
| Spark | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 
| Sqoop |  -  |  -  | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 0,10.2 - amzn-10 | 
| Trino (PrestoSQL) | 457-amzn-0 | 446-amzn-0 | 446-amzn-0 | 442-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 

# Détails des composants de la version 7.6.0
<a name="emr-760-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.6.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.36.0-1 amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0.15.0.amzn.3-1.amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.36.0-1 amzn2023  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |    | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3. amzn.15-1. amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.36.0-1 amzn2023  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.36.0-1 amzn2023  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.1. amzn.0-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.15-1. amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.9.2. amzn.0-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.6.0 vulnérabilités et risques courants
<a name="760-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.6.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 9 janvier 2025.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2013-7285  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-7285)-2013-7285  | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10173  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10173)-2019-10173  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20444  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)-2019-20444  | 
|  CVE-2019-20445  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)-2019-20445  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2021-21342  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21342)-2021-21342  | 
|  CVE-2021-21344  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21344)-2021-21344  | 
|  CVE-2021-21345  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21345)-2021-21345  | 
|  CVE-2021-21346  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21346)-2021-21346  | 
|  CVE-2021-21347  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21347)-2021-21347  | 
|  CVE-2021-21350  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21350)-2021-21350  | 
|  CVE-2021-21351  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21351)-2021-21351  | 
|  CVE-2021-41411  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-41411)-2021-41411  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$142889  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2024-47561  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-52046  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)-2024-52046  | 
|  CVE-2024-53990  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)-2024-53990  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2013-4002  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2014-8125  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2014-8125)-2014-8125  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-3674  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-3674)-2016-3674  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2017-7957  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7957)-2017-7957  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13936  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-26217  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26217)-2020-26217  | 
|  CVE-2020-26258  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26258)-2020-26258  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-21341  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21341)-2021-21341  | 
|  CVE-2021-21343  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21343)-2021-21343  | 
|  CVE-2021-21348  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21348)-2021-21348  | 
|  CVE-2021-21349  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2021-21349](https://nvd.nist.gov/vuln/detail/CVE-2021-21349)  | 
|  CVE-2021-29505  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29505)-2021-29505  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-37136  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)-2021-37136  | 
|  CVE-2021-39139  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39139)-2021-39139  | 
|  CVE-2021-39141  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39141)-2021-39141  | 
|  CVE-2021-39144  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39144)-2021-39144  | 
|  CVE-2021-39145  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39145)-2021-39145  | 
|  CVE-2021-39146  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39146)-2021-39146  | 
|  CVE-2021-39147  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39147)-2021-39147  | 
|  CVE-2021-39148  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39148)-2021-39148  | 
|  CVE-2021-39149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39149)-2021-39149  | 
|  CVE-2021-39150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39150)-2021-39150  | 
|  CVE-2021-39151  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39151)-2021-39151  | 
|  CVE-2021-39152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39152)-2021-39152  | 
|  CVE-2021-39153  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39153)-2021-39153  | 
|  CVE-2021-39154  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-39154)-2021-39154  | 
|  CVE-2021-43859  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)-2021-43859  | 
|  CVE-2\$11415  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)-2\$11415  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140151  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)-2\$140151  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$141966  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-4/1966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145688  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-44487  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44487](https://nvd.nist.gov/vuln/detail/CVE-2023-44487)  | 
|  CVE-2023-50387  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-52428  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)-2024-21634  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2009-2625  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2009-2625)-2009-2625  | 
|  CVE-2012-5783  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2012-6153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2017-10355  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-10355)-2017-10355  | 
|  CVE-2018-10237  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-1313  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2018-2799  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-2799)-2018-2799  | 
|  CVE-2019-10219  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10219)-2019-10219  | 
|  CVE-2019-12384  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-12814  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2020-10693  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10693)-2020-10693  | 
|  CVE-2020-13955  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-14338  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14338)-2020-14338  | 
|  CVE-2020-15250  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-17521  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-29582  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-29582)-2020-29582  | 
|  CVE-2021-21290  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)-2021-21290  | 
|  CVE-2021-21295  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21295)-2021-21295  | 
|  CVE-2021-22569  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-22570  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-27568  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2021-28170  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2021-36374  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2021-37533  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)-2021-37533  | 
|  CVE-2021-38153  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)-2021-38153  | 
|  CVE-2\$123437  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-23437)-2\$123437  | 
|  CVE-2\$124329  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)-2\$124329  | 
|  CVE-2\$138749  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-2\$141854  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2023-0833  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-20863  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-26049  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 
|  CVE-2023-33201  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-34462  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34462](https://nvd.nist.gov/vuln/detail/CVE-2023-34462)  | 
|  CVE-2023-42503  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)-2024-12798  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-38820  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)-2024-38820  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2024-8184  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2020-8908  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2024-12801  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)-2024-12801  | 
|  CVE-2023-50868  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2024-23454  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)-2024-23454  | 
|  CVE-2024-23944  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-23945  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)-2024-23945  | 
|  CVE-2024-25638  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)-2024-25638  | 
|  CVE-2024-29025  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-29131  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-29133  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-29857  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2024-30171  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-31141  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)-2024-31141  | 
|  CVE-2024-36114  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-38808  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)-2024-38808  | 
|  CVE-2024-43382  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-43382)-2024-43382  | 
|  CVE-2024-47072  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47072)-2024-47072  | 
|  CVE-2024-47535  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)-2024-47535  | 
|  CVE-2024-47554  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-51504  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-56128  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)-2024-56128  | 
|  CVE-2024-9823  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)-2024-9823  | 

## notes de publication de la version 7.6.0
<a name="emr-760-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.6.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.6.0 application upgrades include HBase 2.6.1, Flink 1.20.0, Spark 3.5.3, and Trino 457.

**Problèmes connus**
+ Lorsque le dimensionnement géré est activé, le YARN ResourceManager (RM) rencontre un problème de blocage critique, le rendant insensible lors de la transition de l'état **DECOMMISSIONING à l'état DECOMMISSIONED** avec des opérations simultanées**.** Cela se produit en particulier dans les environnements de grands clusters. Lorsque cela se produit, les transitions entre l'état du nœud et l'état de l'application ne sont pas traitées, paralysant ainsi les fonctionnalités de base du. ResourceManager Pour contourner le problème, redémarrez la JVM RM à l'aide de la commande suivante sur le nœud principal :

  ```
  sudo systemctl restart hadoop-yarn-resourcemanager
  ```
+ Lorsqu'un cluster EMR est démarré avec des planificateurs YARN autres que le `CapacityScheduler` ou `FairScheduler` (par exemple, le planificateur FIFO), la `YARNMemoryAvailablePercentage` métrique n'est pas poussée vers. CloudWatch Ce problème a un impact sur la réduction d'échelle dans les clusters compatibles avec le dimensionnement géré. Cela peut également affecter le dimensionnement géré personnalisé s'il dépend de la `YARNMemoryAvailablePercentage` métrique. Pour contourner le problème, utilisez le `CapacityScheduler` ou`FairScheduler`.
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+ Depuis EMR 7.6.0, le processus d'annulation d'étape garantit désormais que toutes les applications Hadoop YARN créées par une étape sont arrêtées lorsque cette étape est annulée. Cela permet un nettoyage plus fiable pour les applications telles que les tâches Spark exécutées en mode cluster.
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ CloudWatch l'agent est pris en charge sur les clusters de rôles d'exécution pour EMR 7.6 et versions ultérieures. Pour plus d'informations, consultez [Amazon CloudWatch agent](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-AmazonCloudWatchAgent.html).
+ À partir de la version 7.6.0 d'Amazon Elastic Map Reduce (EMR), le connecteur de système de fichiers S3A prend désormais en charge le chiffrement côté client Amazon S3.
+ À partir de la version 7.6.0 d'EMR, le protocole TLS est pris en charge sur et sur les terminaux. HMaster RegionServer Pour plus d'informations, consultez le tableau suivant concernant le support TLS avec HBase : [HBase](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-support-matrix.html#emr-encryption-support-matrix-hbase).
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-760-release.html)

## Versions Java 7.6.0 par défaut
<a name="emr-760-jdk"></a>

Amazon EMR version 7.6 et versions ultérieures est livré avec Amazon Corretto 17 (basé sur OpenJDK) par défaut pour les applications qui prennent en charge Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.6.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.6.0
<a name="emr-760-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.2.1-amzn-1 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,15,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,19,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.18.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.36.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.15.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.1 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,67,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,20,0-amzn-0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,20,0-amzn-0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.0-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.0-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.0-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.0-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.0-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.0-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.0-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.6.1-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.6.1-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.6.1-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.6.1-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.6.1-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.6.1-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-15 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-15 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-15 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-15 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-15 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-15 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-15 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-3 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-3 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-3 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-3 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.6.1-amzn-2 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.0 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 457-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 457-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 457-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.3-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.3-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.3-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.3-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.10.1-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-13 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-13 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.2-amzn-0 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.2-amzn-0 | ZooKeeper client en ligne de commande. | 

## Classifications de configuration 7.6.0
<a name="emr-760-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.6.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications de la version 7.6.0
<a name="760-changelog"></a>


**Journal des modifications pour la version 7.6.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 13/01/2025 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.6.0 publiées pour la première fois | 
| 10-01-2025 | Déploiement terminé | [Amazon EMR 7.6.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 26/12/2025 | Première version | Amazon EMR 7.6.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.5.0
<a name="emr-750-release"></a>

## Cycle de vie pris en charge en 7.5.0
<a name="emr-750-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.5.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 21 novembre 2024 | 
| Support standard jusqu'à | 20 novembre 2026 | 
| Fin de l'assistance | 21 novembre 2026 | 
| Fin de vie | 21 novembre 2027 | 

## Versions de l'application 7.5.0
<a name="emr-750-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.5.0 | emr-7.4.0 | emr-7.3.0 | emr-7.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,28,8, 1,12,772 | 2,28,8, 1,12,772 | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,18 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 3.1.0 | 
| Flink | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.5.10-amzn-0 | 2,5,5-amzn-0 | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 
| HCatalog | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 
| Hadoop | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 
| Hive | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 
| Hudi | 0,15,0-amzn-2 | 0,15,0-amzn-1 | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  |  -  | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.0 | 5.2.0 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-0 | 0,287-amzn-0 | 0,285-amzn-1 | 0,285-amzn-0 | 
| Spark | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 
| Sqoop |  -  | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.11.0 | 
| Tez | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 
| Trino (PrestoSQL) | 446-amzn-0 | 446-amzn-0 | 442-amzn-0 | 436-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0,1,1 | 
| ZooKeeper | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 

# Détails des composants de la version 7.5.0
<a name="emr-750-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.5.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0.15.0.amzn.0-1.amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |    | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.1. amzn.0-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  2.64.0-1 amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.5.0 vulnérabilités et risques courants
<a name="750-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.5.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 23 novembre 2021.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2013-4002  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2018-12022  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2019-12384  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14439  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2020-10672  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-11112  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-13949  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14195  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-17521  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-24616  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-36183  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36186  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36188  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-8908  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2021-37137  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)-2021-37137  | 
|  CVE-2021-38153  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)-2021-38153  | 
|  CVE-2\$125857  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13509  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$137866  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$141966  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-4/1966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2\$145688  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2023-34455  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-38647  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-40167  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-40167](https://nvd.nist.gov/vuln/detail/CVE-2023-40167)  | 
|  CVE-2023-43642  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-50387  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2024-23454  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)-2024-23454  | 
|  CVE-2024-29025  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-36124  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36124)-2024-36124  | 
|  CVE-2024-8184  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2012-5783  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-5018  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2017-15095  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-10054  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10054)-2018-10054  | 
|  CVE-2018-10237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-14721  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19361  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2018-7489  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12814  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-14540  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16869  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)-2019-16869  | 
|  CVE-2019-16942  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-17267  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20444  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)-2019-20444  | 
|  CVE-2019-20445  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)-2019-20445  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13955  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-15250  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-26939  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-8840  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-21290  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)-2021-21290  | 
|  CVE-2021-22569  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-28170  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-36374  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2021-37533  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)-2021-37533  | 
|  CVE-2021-43859  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)-2021-43859  | 
|  CVE-2\$11415  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)-2\$11415  | 
|  CVE-2\$11471  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137865  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$138749  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140151  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)-2\$140151  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$141854  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142889  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146337  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2023-0833  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20863  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-33201  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  haut  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-42503  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-50868  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2023-52428  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)-2024-21634  | 
|  CVE-2024-23944  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-29131  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-30171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-35255  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-35255)-2024-35255  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-38808  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)-2024-38808  | 
|  CVE-2024-39676  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-39676)-2024-39676  | 
|  CVE-2024-51504  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2017-17485  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2018-14719  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-19362  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2020-10650  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10968  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-13936  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-14062  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-28052  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2\$125647  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-04-2004  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$146751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-20883  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-26048  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26048](https://nvd.nist.gov/vuln/detail/CVE-2023-26048)  | 
|  CVE-2023-2976  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-36478  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-25638  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)-2024-25638  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-29133  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47561  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2012-6153  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2020-11113  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2021-22570  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-27568  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2024-29857  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2017-7525  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-1313  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2018-19360  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2019-16335  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16943  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2020-36180  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2021-37136  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)-2021-37136  | 
|  CVE-2\$124329  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)-2\$124329  | 
|  CVE-2\$139135  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$140149  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2023-26049  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 

## notes de mise à jour de la 7.5.0
<a name="emr-750-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.5.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.5.0 application upgrades include Delta 3.2.1-amzn-0, HBase 2.5.10, Hudi 0.15.0-amzn-2, and Iceberg 1.6.1-amzn-1.
+ Les journaux d'écriture anticipée (WAL) EMR prennent en charge la réplication entre clusters. Pour plus d'informations, consultez la section [Réplication entre clusters EMR WAL](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-wal-cross-cluster.html).

**Problèmes connus**
+ Apache Sqoop a été supprimé de la version 7.5 et des versions ultérieures d'Amazon EMR.
+ Lorsque le dimensionnement géré est activé, le YARN ResourceManager (RM) rencontre un problème de blocage critique, le rendant insensible lors de la transition de l'état **DECOMMISSIONING à l'état DECOMMISSIONED** avec des opérations simultanées**.** Cela se produit en particulier dans les environnements de grands clusters. Lorsque cela se produit, les transitions entre l'état du nœud et l'état de l'application ne sont pas traitées, paralysant ainsi les fonctionnalités de base du. ResourceManager Pour contourner le problème, redémarrez la JVM RM à l'aide de la commande suivante sur le nœud principal :

  ```
  sudo systemctl restart hadoop-yarn-resourcemanager
  ```
+ Lorsqu'un cluster EMR est démarré avec des planificateurs YARN autres que le `CapacityScheduler` ou `FairScheduler` (par exemple, le planificateur FIFO), la `YARNMemoryAvailablePercentage` métrique n'est pas poussée vers. CloudWatch Ce problème a un impact sur la réduction d'échelle dans les clusters compatibles avec le dimensionnement géré. Cela peut également affecter le dimensionnement géré personnalisé s'il dépend de la `YARNMemoryAvailablePercentage` métrique. Pour contourner le problème, utilisez le `CapacityScheduler` ou`FairScheduler`.
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Amazon EMR utilise différentes versions de la TensorFlow bibliothèque, en fonction des types d'instances que vous choisissez pour votre cluster. Amazon EMR prend également en charge les clusters dotés de types TensorFlow d'instances **aarch64** (instances Graviton) à partir d'EMR-7.5.0 et versions ultérieures.

  Le tableau suivant répertorie les builds par type d'instance pour EMR-7.5.0 :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-750-release.html)
+ Un cluster Amazon EMR de AWS Lake Formation avec FGAC (Fine-Grained Access Control) peut désormais prendre en charge jusqu'à 256 étapes simultanées avec la configuration hdfs-site.xml suivante :

  ```
  [
    {
      "Classification": "hdfs-site",
      "Properties": {
        "dfs.datanode.handler.count": "40",
        "dfs.datanode.max.transfer.threads": "16384",
        "dfs.namenode.handler.count": "64",
        "dfs.replication": "1"
      }
    },
    {
      "Classification": "hdfs-env",
      "Configurations": [
        {
          "Classification": "export",
          "Properties": {
            "HADOOP_DATANODE_HEAPSIZE": "5120"
          }
        }
      ],
      "Properties": {}
    }
  ]
  ```
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-750-release.html)

## Versions Java 7.5.0 par défaut
<a name="emr-750-jdk"></a>

Amazon EMR version 7.5 et versions ultérieures est livré avec Amazon Corretto 17 (basé sur OpenJDK) par défaut pour les applications qui prennent en charge Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.5.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.5.0
<a name="emr-750-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.2.1-amzn-0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,14,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,18,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.16.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.35.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.14.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.1 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,66,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.19.1-amzn-1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.19.1-amzn-1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.0-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.0-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.0-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.0-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.0-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.0-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.0-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.5.10-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.5.10-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.5.10-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.5.10-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.5.10-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.5.10-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-14 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-14 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-14 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-14 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-14 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-14 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-14 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-2 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.6.1-amzn-1 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.0 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 446-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 446-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 446-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.2-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.2-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.2-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.2-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.08.1-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-12 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-12 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.2-amzn-0 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.2-amzn-0 | ZooKeeper client en ligne de commande. | 

## 7.5.0 classifications de configuration
<a name="emr-750-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.5.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.5.0
<a name="750-changelog"></a>


**Journal des modifications pour la version 7.5.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/11/2024 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.5.0 publiées pour la première fois | 
| 21/11/2024 | Déploiement terminé | [Amazon EMR 7.5.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 13/11/2024 | Première version | Amazon EMR 7.5.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.4.0
<a name="emr-740-release"></a>

## Cycle de vie pris en charge en 7.4.0
<a name="emr-740-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.4.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 13 novembre 2024 | 
| Support standard jusqu'à | 12 novembre 2026 | 
| Fin de l'assistance | 13 novembre 2026 | 
| Fin de vie | 13 novembre 2027 | 

## Versions de l'application 7.4.0
<a name="emr-740-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.4.0 | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,28,8, 1,12,772 | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 2,23,18, 1,12,656 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 
| Scala | 2,1,18 | 2,1,18 | 2,1,17 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 
| Delta | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 
| Flink | 1.19.1-amzn-0 | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 1,18.1-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2,5,5-amzn-0 | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 2,4,17-amzn-5 | 
| HCatalog | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 
| Hadoop | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 
| Hive | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 
| Hudi | 0,15,0-amzn-1 | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 0.14.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 1.4.3-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 
| MXNet |  -  |  -  | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.0 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,287-amzn-0 | 0,285-amzn-1 | 0,285-amzn-0 | 0,284-amzn-0 | 
| Spark | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-11 | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 
| Trino (PrestoSQL) | 446-amzn-0 | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 

# Détails des composants de la version 7.4.0
<a name="emr-740-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.4.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0.15.0.amzn.0-1.amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |    | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.1. amzn.0-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  2.64.0-1 amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.4.0 vulnérabilités et expositions courantes
<a name="740-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a pas d'impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.4.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 14 novembre 2024.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2013-4002  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-12022  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2019-12384  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)-2019-12384  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14439  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2020-10672  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-11112  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-13949  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14195  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-17521  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)-2020-17521  | 
|  CVE-2020-24616  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-36183  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36186  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36188  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-8908  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)-2020-8908  | 
|  CVE-2021-37137  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)-2021-37137  | 
|  CVE-2021-38153  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)-2021-38153  | 
|  CVE-2\$125857  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13509  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$137866  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$141966  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-4/1966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2\$145688  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2023-34455  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-38647  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-40167  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-40167](https://nvd.nist.gov/vuln/detail/CVE-2023-40167)  | 
|  CVE-2023-43642  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-50387  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2024-23454  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)-2024-23454  | 
|  CVE-2024-29025  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)-2024-29025  | 
|  CVE-2024-36124  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36124)-2024-36124  | 
|  CVE-2024-8184  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)-2024-8184  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2012-5783  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)-2012-5783  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-5018  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2017-15095  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-10054  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10054)-2018-10054  | 
|  CVE-2018-10237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)-2018-10237  | 
|  CVE-2018-11798  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)-2018-11798  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-14721  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19361  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2018-7489  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12814  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)-2019-12814  | 
|  CVE-2019-14540  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16869  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)-2019-16869  | 
|  CVE-2019-16942  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-17267  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20444  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)-2019-20444  | 
|  CVE-2019-20445  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)-2019-20445  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13955  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)-2020-13955  | 
|  CVE-2020-13956  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)-2020-13956  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-15250  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)-2020-15250  | 
|  CVE-2020-26939  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)-2020-26939  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-8840  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-21290  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)-2021-21290  | 
|  CVE-2021-22569  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)-2021-22569  | 
|  CVE-2021-28170  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)-2021-28170  | 
|  CVE-2021-29425  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)-2021-29425  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-36374  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)-2021-36374  | 
|  CVE-2021-37533  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)-2021-37533  | 
|  CVE-2021-43859  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)-2021-43859  | 
|  CVE-2\$11415  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)-2\$11415  | 
|  CVE-2\$11471  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137865  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$138749  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2\$138749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2\$138751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)-2\$138751  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140151  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)-2\$140151  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$141854  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)-2\$141854  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142889  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146337  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2023-0833  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20863  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-33201  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-42503  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-50868  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2023-52428  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)-2024-21634  | 
|  CVE-2024-23944  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)-2024-23944  | 
|  CVE-2024-29131  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)-2024-29131  | 
|  CVE-2024-30171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)-2024-30171  | 
|  CVE-2024-30172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)-2024-30172  | 
|  CVE-2024-34447  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)-2024-34447  | 
|  CVE-2024-35255  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-35255)-2024-35255  | 
|  CVE-2024-36114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)-2024-36114  | 
|  CVE-2024-38808  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)-2024-38808  | 
|  CVE-2024-39676  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-39676)-2024-39676  | 
|  CVE-2024-51504  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)-2024-51504  | 
|  CVE-2024-7254  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)-2024-7254  | 
|  CVE-2017-17485  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2018-14719  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-19362  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2020-10650  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10968  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-13936  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-14062  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-15522  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)-2020-15522  | 
|  CVE-2020-1945  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-28052  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2021-36373  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)-2021-36373  | 
|  CVE-2\$125647  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$138750  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)-2\$138750  | 
|  CVE-2\$138752  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)-2\$138752  | 
|  CVE-04-2004  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)-4 février 2004  | 
|  CVE-2\$146751  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-20883  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-26048  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26048](https://nvd.nist.gov/vuln/detail/CVE-2023-26048)  | 
|  CVE-2023-2976  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-36478  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-51074  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-25638  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)-2024-25638  | 
|  CVE-2024-25710  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)-2024-25710  | 
|  CVE-2024-26308  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)-2024-26308  | 
|  CVE-2024-29133  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)-2024-29133  | 
|  CVE-2024-47554  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)-2024-47554  | 
|  CVE-2024-47561  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)-2024-47561  | 
|  CVE-2024-6763  |  MOYEN  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)-2024-6763  | 
|  CVE-2012-6153  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)-2012-6153  | 
|  CVE-2020-11113  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2021-22570  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)-2021-22570  | 
|  CVE-2021-27568  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)-2021-27568  | 
|  CVE-2024-29857  |  BAS  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)-2024-29857  | 
|  CVE-2018-1313  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)-2018-1313  | 
|  CVE-2020-36180  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2021-37136  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)-2021-37136  | 
|  CVE-2\$124329  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)-02:24329  | 
|  CVE-2\$140149  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-02:40149  | 
|  CVE-2023-26049  |  NON TRIÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 

## notes de mise à jour de la 7.4.0
<a name="emr-740-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.4.0 d'Amazon EMR.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.4.0 application upgrades include AWS SDK for Java 2.28.8, Delta 3.2.0-amzn-1, Flink 1.19.1, Hadoop 3.4.0, HBase 2.5.5, Hudi 0.15.0-amzn-1, Iceberg 1.6.1-amzn-0, Phoenix 5.2.0, Presto 0.287, Spark 3.5.2, Trino 446, and Zookeeper 3.9.2.
+ Cette version ajoute 7 points de terminaison open source qui prennent en charge le chiffrement en transit sur le réseau. Cette amélioration inclut des frameworks open source tels que Hue, Livy JupyterEnterpriseGateway, Zookeeper et Ranger KMS. Si vous avez activé le chiffrement en transit et que vous souhaitez vous connecter à ces points de terminaison, vous devrez peut-être modifier votre code pour prendre en charge les communications TLS. Vous pouvez désactiver le protocole TLS pour n'importe lequel de ces points de terminaison selon vos besoins. Pour obtenir la liste complète des points de terminaison pris en charge, voir [Comprendre le chiffrement en transit](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-support-matrix.html).

**Problèmes connus**
+ La `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` propriété de Yarn ResourceManager, qui prenait auparavant en charge les gestionnaires de shuffle Hive depuis emr-6.11.0, applique désormais également une mise hors service progressive aux fichiers servis par le service de shuffle externe Spark, lors de l'exécution de Spark on Yarn dans emr-7.4.0.

  Notez que le comportement par défaut du service de shuffle externe Spark, lors de l'exécution de Spark on Yarn, est que le Yarn supprime les fichiers NodeManager de shuffle d'applications lorsque l'application est fermée. Cela peut avoir un impact sur la vitesse de mise hors service des nœuds et sur l'utilisation du calcul. Pour les applications de longue durée, pensez `spark.shuffle.service.removeShuffle` `true` à configurer pour supprimer les fichiers de shuffle qui ne sont plus utilisés, ce qui permet de mettre hors service plus rapidement les nœuds sans données de shuffle actives. 
+  Disponibilité d'Amazon S3 Select — Amazon S3 Select ne prend pas en charge les requêtes interrégionales pour Presto et Trino. Pour plus d'informations sur les fonctionnalités spécifiques disponibles pour les versions Presto et Trino, consultez [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html) et Trino.
+ Apache Ranger n'est pas pris en charge par la version 7.4 d'Amazon EMR.
+ Apache Sqoop n'est pas compatible avec Apache Hadoop 3.4 en raison d'un problème connu, le SQOOP-3485. La version 7.4 d'Amazon EMR inclut mais ne prend pas en charge Apache Sqoop. Apache Sqoop sera supprimé des versions 7.5 et supérieures d'Amazon EMR.
+ Lorsque le dimensionnement géré est activé, le YARN ResourceManager (RM) rencontre un problème de blocage critique, le rendant insensible lors de la transition de l'état **DECOMMISSIONING à l'état DECOMMISSIONED** avec des opérations simultanées**.** Cela se produit en particulier dans les environnements de grands clusters. Lorsque cela se produit, les transitions entre l'état du nœud et l'état de l'application ne sont pas traitées, paralysant ainsi les fonctionnalités de base du. ResourceManager Pour contourner le problème, redémarrez la JVM RM à l'aide de la commande suivante sur le nœud principal :

  ```
  sudo systemctl restart hadoop-yarn-resourcemanager
  ```
+ Lorsqu'un cluster EMR est démarré avec des planificateurs YARN autres que le `CapacityScheduler` ou `FairScheduler` (par exemple, le planificateur FIFO), la `YARNMemoryAvailablePercentage` métrique n'est pas poussée vers. CloudWatch Ce problème a un impact sur la réduction d'échelle dans les clusters compatibles avec le dimensionnement géré. Cela peut également affecter le dimensionnement géré personnalisé s'il dépend de la `YARNMemoryAvailablePercentage` métrique. Pour contourner le problème, utilisez le `CapacityScheduler` ou`FairScheduler`.
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Amazon EMR utilise différentes versions de la TensorFlow bibliothèque en fonction des types d'instances que vous choisissez pour votre cluster. Amazon EMR prend également en charge les clusters dotés de types TensorFlow d'instances aarch64 (instances Graviton) à partir d'EMR-7.5.0 et versions ultérieures.
+ **Optimisation de la mise à l'échelle des demandes S3 pour les charges de travail Iceberg** — Pour les clients qui utilisent Iceberg intégré aux versions d'EMR 34 v7.4, S3 a mis à jour le schéma d'entropie par défaut en utilisant un hachage de 20 caractères en base 2 (par exemple 35 01010110100110110010). Ce nouveau schéma d'entropie en base 2 réduit la plage de caractères et permet à S3 d'adapter automatiquement la capacité des demandes plus rapidement aux exigences de la charge de travail cible d'Iceberg. Cela réduit également le temps pendant lequel une charge de travail observe 503 réponses d'accélérateur.
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-740-release.html)

## Versions Java 7.4.0 par défaut
<a name="emr-740-jdk"></a>

Les versions 7.4 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.4.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 7.4.0
<a name="emr-740-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.2.0-amzn-1 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3,13,0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,17,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.17.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.34.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.13.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.1 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,65,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.19.1-amzn-0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.19.1-amzn-0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.4.0-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.4.0-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.4.0-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.4.0-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-0 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.4.0-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.4.0-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.4.0-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2,5,5-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2,5,5-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2,5,5-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2,5,5-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2,5,5-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2,5,5-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-13 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-13 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-13 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-13 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-13 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-13 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-13 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.6.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.2.0 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,287-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,287-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,287-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 446-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 446-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 446-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.2-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.2-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.2-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.2-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.08.1-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-11 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-11 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.2-amzn-0 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.2-amzn-0 | ZooKeeper client en ligne de commande. | 

## 7.4.0 classifications de configuration
<a name="emr-740-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.4.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.4.0
<a name="740-changelog"></a>


**Journal des modifications pour la version 7.4.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 18/11/2024 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.4.0 publiées pour la première fois | 
| 13/11/2024 | Déploiement terminé | [Amazon EMR 7.4.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 31/10/2024 | Début du déploiement | Amazon EMR 7.4.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.3.0
<a name="emr-730-release"></a>

## Cycle de vie pris en charge en 7.3.0
<a name="emr-730-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.3.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 16 octobre 2024 | 
| Support standard jusqu'à | 15 octobre 2026 | 
| Fin de l'assistance | 16 octobre 2026 | 
| Fin de vie | 16 octobre 2027 | 

## Versions de l'application 7.3.0
<a name="emr-730-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 2,23,18, 1,12,656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3.9 | 
| Scala | 2,1,18 | 2,1,17 | 2,1,17 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 1,18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 2,4,17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,285-amzn-1 | 0,285-amzn-0 | 0,284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

# Détails des composants de la version 7.3.0
<a name="emr-730-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.3.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0.15.0.amzn.0-1.amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |    | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  2 h 33 - 1 h 00  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.1. amzn.0-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.12-1. amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  2.64.0-1 amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.5-1. amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.3.0 vulnérabilités et expositions courantes
<a name="730-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a pas d'impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.3.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 3 octobre 2024.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20444  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)-2019-20444  | 
|  CVE-2019-20445  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)-2019-20445  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2013-4002  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2015-2156  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-2156)-2015-2156  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2017-18640  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)-2017-18640  | 
|  CVE-2017-18640  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)-2017-18640  | 
|  CVE-2018-1000180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)-2018-1000180  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-16869  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)-2019-16869  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-13936  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)-2020-28052  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35517  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)-2021-35517  | 
|  CVE-2021-36090  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)-2021-36090  | 
|  CVE-2021-37136  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)-2021-37136  | 
|  CVE-2021-37137  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)-2021-37137  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-3\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-3\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-3\$145685  | 
|  CVE-2\$145688  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-45688  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-3\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-3\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-3\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-432 46751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-36478  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-36478  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-50387  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)-2024-21634  | 

## notes de mise à jour de la 7.3.0
<a name="emr-730-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.3.0 d'Amazon EMR. Les modifications concernent la version 7.3.0.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.3.0 application upgrades include Delta 3.2.0-amzn-0, Hudi 0.15.0-amzn-0, TensorFlow 2.16.1, Trino 442, and Zeppelin 0.11.1.
+ Cette version ajoute 22 points de terminaison open source qui prennent en charge le chiffrement en transit sur le réseau. Cette amélioration inclut des frameworks open source tels que Hadoop, Hive, Tez HBase, Phoenix et Flink. Si vous avez activé le chiffrement en transit et que vous souhaitez vous connecter à ces points de terminaison, vous devrez peut-être modifier votre code pour prendre en charge les communications TLS. Vous pouvez désactiver le protocole TLS pour n'importe lequel de ces points de terminaison selon vos besoins. Pour obtenir la liste complète des points de terminaison pris en charge, voir [Comprendre le chiffrement en transit](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-support-matrix.html).
+ Avec Amazon EMR 7.3.0, Apache Hive with Iceberg prend désormais en charge le catalogue de données AWS Glue en tant que métastore, ce qui vous offre des avantages tels qu'un référentiel centralisé pour stocker les métadonnées, explorer automatiquement les sources de données et extraire les métadonnées, et l'intégration avec d'autres services pour des flux de travail fluides.

**Problèmes connus**
+ Python 3.11 n'est pas pris en charge avec EMR Studio.
+ Si vous utilisez le chiffrement en transit et l'authentification Kerberos, vous ne pourrez pas utiliser les applications Spark qui dépendent du métastore Hive. Ce problème est résolu dans [HIVE-16340](https://issues.apache.org/jira/browse/HIVE-16340) et sera entièrement résolu dans [SPARK-44114](https://issues.apache.org/jira/browse/SPARK-44114) lorsque Spark pourra passer à Hive 3 en open source. En attendant, vous pouvez contourner temporairement ce problème en réglant `hive.metastore.use.SSL` sur`false`. Pour plus d'informations, consultez [Configuration des applications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html).
  + Si vous n'utilisez pas l'authentification Kerberos, vous devez configurer Spark pour utiliser le protocole SSL. Pour ce faire, définissez les configurations suivantes lorsque vous provisionnez votre cluster.

    ```
    [{
        "Classification": "spark-defaults",
        "Properties": {
            "spark.hadoop.hive.metastore.truststore.path": "/usr/share/aws/emr/security/conf/keystore-thrift.jks",
            "spark.hadoop.hive.metastore.use.SSL": "true"
        }
    }]
    ```
+ Si vous utilisez des domaines personnalisés, certains liens de l'interface utilisateur de Spark History Server dans la AWS console risquent de ne pas fonctionner. Téléchargez le script suivant dans un compartiment S3, puis [ajoutez une étape](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-add-steps-console.html) pour utiliser le script shell.

  ```
  #!/bin/bash
  
  if grep -q ":8042" /etc/nginx/nginx.conf; then
      sudo sed -i '=s#\^(\\/nm\\/(?<nodeAddress>.*:8042)\\/(?<url>.*)\$)#^(\\/nm\\/(?<nodeAddress>(\\.|-|[a-zA-Z0-9])*:8042)\\/(?<url>(node|conf|logs|stacks|jmx).*)\$)#g' /etc/nginx/nginx.conf
  else
      sudo sed -i 's#\^(\\/nm\\/(?<nodeAddress>.*:8044)\\/(?<url>.*)\$)#^(\\/nm\\/(?<nodeAddress>(\\.|-|[a-zA-Z0-9])*:8044)\\/(?<url>(node|conf|logs|stacks|jmx).*)\$)#g' /etc/nginx/nginx.conf
  fi
  
  sudo systemctl restart nginx
  ```
+  **HBase création de tables dans le catalogue Hive with Glue** : entre EMR-7.3.0 et EMR-7.10.0, un bogue lié à l'intégration de Hive Iceberg entraîne l'échec de la HBase création de tables dans Hive lorsque Glue Data Catalog est utilisé comme métastore. Contactez l'équipe d' AWS assistance si vous rencontrez ce problème.
+  **Interface utilisateur Tez** — Entre EMR-7.3 et EMR-7.10, il existe un bogue selon lequel l'accès à l'interface utilisateur de Tez via l'interface utilisateur Web de YARN Resource Manager échoue lorsque le cryptage en transit est activé. Cela se produit parce que le proxy YARN tente d'utiliser le protocole HTTP alors que l'interface utilisateur de Tez nécessite le protocole HTTPS. Modifiez la `tez.tez-ui.history-url.base` configuration sous forme `tez-site` de `http` `https` pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Pour prendre en charge la vérification du nom d'hôte TLS pour YARN, cette version modifie la `yarn.resourcemanager.hostname` configuration de l'adresse IP de l'instance principale au nom DNS privé de l'instance principale.
+ [MXNet le projet](https://github.com/apache/mxnet) a atteint la fin de sa durée de vie et est maintenant archivé. [Amazon EMR version 7.2.0](emr-720-release.md)est la dernière version qui inclut MXNet.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-730-release.html)

## Versions Java 7.3.0 par défaut
<a name="emr-730-jdk"></a>

Les versions 7.3 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.3.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 17, 11, 8 | 

## Versions des composants 7.3.0
<a name="emr-730-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.2.0-amzn-0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.12.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,16,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.16.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.33.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.12.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.3.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,64,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,18.1-amzn-2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,18.1-amzn-2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.3.6-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.6-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.6-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2,4,17-amzn-7 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2,4,17-amzn-7 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2,4,17-amzn-7 | HBase client en ligne de commande. | 
| hbase-rest-server | 2,4,17-amzn-7 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2,4,17-amzn-7 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2,4,17-amzn-7 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-12 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-12 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-12 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-12 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-12 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-12 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-12 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,15,0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,15,0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,15,0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,15,0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.5.2-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 12.3.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,285-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,285-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,285-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 442-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 442-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 442-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.1-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.1-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.1-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.1-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.06.1-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.16.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0,10.2 - amzn-10 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0,10.2 - amzn-10 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0.11.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.1-amzn-1 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.1-amzn-1 | ZooKeeper client en ligne de commande. | 

## 7.3.0 classifications de configuration
<a name="emr-730-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.3.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.3.0
<a name="730-changelog"></a>


**Journal des modifications pour la version 7.3.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 17/10/2024 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.3.0 publiées pour la première fois | 
| 16/10/2024 | Déploiement terminé | [Amazon EMR 7.3.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 14-10-2024 | Première version | Amazon EMR 7.3.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.2.0
<a name="emr-720-release"></a>

## Cycle de vie pris en charge en 7.2.0
<a name="emr-720-supported-lifecycle"></a>

Le tableau suivant décrit les dates de cycle de vie prises en charge pour la version 7.2.0 d'Amazon EMR.


| Phase de support | Date | 
| --- | --- | 
| Date de sortie initiale | 25 juillet 2024 | 
| Support standard jusqu'à | 24 juillet 2026 | 
| Fin de l'assistance | 25 juillet 2026 | 
| Fin de vie | 25 juillet 2027 | 

## Versions de l'application 7.2.0
<a name="emr-720-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 2,23,18, 1,12,656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3.9 | 
| Scala | 2,1,18 | 2,1,17 | 2,1,17 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 1,18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 2,4,17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,285-amzn-1 | 0,285-amzn-0 | 0,284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

# Détails des composants de la version 7.2.0
<a name="emr-720-release-components-details"></a>

Consultez le tableau suivant pour plus d'informations sur les packages *Extras* dans Amazon EMR 7.2.0.


| Application | Type de demande | Package | Type de package | Version du package | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.32.0-1 amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Flink  |  Principal  |  hudi  |  Suppléments  |  0.14.1.amzn.1-1.amzn2023  | 
|  Flink  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Flink  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  HBase  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.32.0-1 amzn2023  | 
|  HCatalog  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  HCatalog  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Hive  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Hive  |  Principal  |  hive-hbase  |  Suppléments  |  3.1.3. amzn.11-1. amzn2023  | 
|  Hive  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Hive  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.32.0-1 amzn2023  | 
|  Phoenix  |  Principal  |  s3-dist-cp  |  Suppléments  |  2.32.0-1 amzn2023  | 
|  Spark  |  Principal  |  noyau de données Spark  |  Suppléments  |  3.5.1. amzn.0-1. amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Tez  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-utils  |  Suppléments  |  1.2.0-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hive  |  Suppléments  |  3.1.3. amzn.11-1. amzn2023  | 
|  Trino  |  Principal  |  hive-hcatalog-server  |  Suppléments  |  3.1.3. amzn.11-1. amzn2023  | 
|  Trino  |  Principal  |  mariadb-connector-java  |  Suppléments  |  2.7.2-1  | 
|  Trino  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 
|  Trino  |  Principal  |  gardien de zoo  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  zookeeper-server  |  Suppléments  |  3.9.1. amzn.1-1.amzn2023  | 
|  Trino  |  Principal  |  bigtop-groovy  |  Suppléments  |  2.5.4-1. amzn2023  | 
|  Trino  |  Principal  |  bigtop-jsvc  |  Suppléments  |  1.2.4-1. amzn2023  | 
|  Trino  |  Principal  |  hadoop  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Trino  |  Principal  |  hadoop-lzo  |  Suppléments  |  0.4.19-1 amzn2023  | 
|  Trino  |  Principal  |  catalogue hive-h  |  Suppléments  |  3.1.3. amzn.11-1. amzn2023  | 
|  Trino  |  Principal  |  hive-jdbc  |  Suppléments  |  3.1.3. amzn.11-1. amzn2023  | 
|  Zookeeper  |  Principal  |  emrfs  |  Suppléments  |  2.63.0-1 amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-client  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-datanode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-journalnode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-hdfs-namenode  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-httpfs  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  Hadoop KMS  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-mapreduce-historyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  fil Hadoop  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-nodemanager  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-proxyserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-resourcemanager  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  hadoop-yarn-timelineserver  |  Suppléments  |  3.3.6. amzn.4-1.amzn2023  | 
|  Zookeeper  |  Principal  |  ranger-km  |  Suppléments  |  2.0.0-1 mai 2023  | 

# 7.2.0 vulnérabilités et risques courants
<a name="720-common-vulnerabilities-exposures"></a>

Le tableau suivant répertorie tout CVEs ce qui n'a aucun impact sur les clusters EMR qui s'exécutent sur les configurations recommandées d'Amazon EMR 7.2.0. Amazon EMR dépend de l'open source en amont pour la disponibilité des correctifs et fournira la dernière version stable dans le cadre des composants du moteur principal dans les 90 jours suivant la vérification des correctifs par Amazon EMR.

Ce tableau a été mis à jour le 15 septembre 2024.


| ID CVE | Sévérité | URL des détails du CVE | 
| --- | --- | --- | 
|  CVE-2015-1832  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)-2015-1832  | 
|  CVE-2015-4852  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-4852)-2015-4852  | 
|  CVE-2015-7501  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-7501)-2015-7501  | 
|  CVE-2016-5018  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)-2016-5018  | 
|  CVE-2017-1000487  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-1000487)-2017-1000487  | 
|  CVE-2017-12629  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-12629)-2017-12629  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-15095  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)-2017-15095  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-17485  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)-2017-17485  | 
|  CVE-2017-7525  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)-2017-7525  | 
|  CVE-2017-7657  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7657)-2017-7657  | 
|  CVE-2017-7658  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7658)-2017-7658  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-11307  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)-2018-11307  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14718  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)-2018-14718  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14719  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)-2018-14719  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14720  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)-2018-14720  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-14721  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)-2018-14721  | 
|  CVE-2018-17190  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-17190)-2018-17190  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19361  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)-2018-19361  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-19362  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)-2018-19362  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2018-7489  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)-2018-7489  | 
|  CVE-2019-10202  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)-2019-10202  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14379  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)-2019-14379  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14540  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)-2019-14540  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14892  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)-2019-14892  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-14893  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)-2019-14893  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16335  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)-2019-16335  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16942  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)-2019-16942  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-16943  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)-2019-16943  | 
|  CVE-2019-17195  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17195)-2019-17195  | 
|  CVE-2019-17195  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17195)-2019-17195  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17267  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)-2019-17267  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-17531  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)-2019-17531  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20330  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)-2019-20330  | 
|  CVE-2019-20444  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)-2019-20444  | 
|  CVE-2019-20444  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)-2019-20444  | 
|  CVE-2019-20445  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)-2019-20445  | 
|  CVE-2019-20445  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)-2019-20445  | 
|  CVE-2020-7692  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-7692)-2020-7692  | 
|  CVE-2020-7692  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-7692)-2020-7692  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-8840  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)-2020-8840  | 
|  CVE-2020-9480  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9480)-2020-9480  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9546  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)-2020-9546  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9547  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)-2020-9547  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2020-9548  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)-2020-9548  | 
|  CVE-2021-26291  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-26291)-2021-26291  | 
|  CVE-2021-26291  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-26291)-2021-26291  | 
|  CVE-2021-32797  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-32797)-2021-32797  | 
|  CVE-2021-32798  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-32798)-2021-32798  | 
|  CVE-2021-35958  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35958)-2021-35958  | 
|  CVE-2021-37404  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37404)-2021-37404  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-02:1471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-02:1471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$11471  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)-2\$11471  | 
|  CVE-2\$125168  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25168)-2\$125168  | 
|  CVE-2\$126612  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-26612)-2\$126612  | 
|  CVE-2\$132532  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-32532)-2\$132532  | 
|  CVE-2\$133980  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-33980)-2\$133980  | 
|  CVE-2\$137865  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)-2\$137865  | 
|  CVE-2\$139135  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)-2\$139135  | 
|  CVE-2\$140664  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40664)-2\$140664  | 
|  CVE-2\$142889  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)-2\$142889  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2\$146337  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)-2\$146337  | 
|  CVE-2023-38647  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-38647  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2024-1597  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-1597)-2024-1597  | 
|  CVE-2024-1597  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-1597)-2024-1597  | 
|  CVE-2024-1597  |  CRITIQUE  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-1597)-2024-1597  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2012-0881  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)-2012-0881  | 
|  CVE-2013-4002  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2013-4002  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)-2013-4002  | 
|  CVE-2014-0114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2014-01-14](https://nvd.nist.gov/vuln/detail/CVE-2014-0114)  | 
|  CVE-2014-0114  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2014-01-14](https://nvd.nist.gov/vuln/detail/CVE-2014-0114)  | 
|  CVE-2015-2080  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-2080)-2015-2080  | 
|  CVE-2015-2156  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-2156)-2015-2156  | 
|  CVE-2015-2156  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-2156)-2015-2156  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-5237  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)-2015-5237  | 
|  CVE-2015-6420  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2015-6420)-2015-6420  | 
|  CVE-2016-1000338  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-1000338)-2016-1000338  | 
|  CVE-2016-1000340  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-1000340)-2016-1000340  | 
|  CVE-2016-1000342  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-1000342)-2016-1000342  | 
|  CVE-2016-1000343  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-1000343)-2016-1000343  | 
|  CVE-2016-1000344  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-1000344)-2016-1000344  | 
|  CVE-2016-1000352  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-1000352)-2016-1000352  | 
|  CVE-2016-6796  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)-2016-6796  | 
|  CVE-2017-1000034  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-1000034)-2017-1000034  | 
|  CVE-2017-12612  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-12612)-2017-12612  | 
|  CVE-2017-15288  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-15288)-2017-15288  | 
|  CVE-2017-18640  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)-2017-18640  | 
|  CVE-2017-18640  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)-2017-18640  | 
|  CVE-2017-5637  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-5637)-2017-5637  | 
|  CVE-2017-7656  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7656)-2017-7656  | 
|  CVE-2017-7687  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-7687)-2017-7687  | 
|  CVE-2017-9735  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-9735)-2017-9735  | 
|  CVE-2017-9790  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2017-9790)-2017-9790  | 
|  CVE-2018-10054  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10054)-2018-10054  | 
|  CVE-2018-10936  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-10936)-2018-10936  | 
|  CVE-2018-11793  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11793)-2018-11793  | 
|  CVE-2018-11804  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-11804)-2018-11804  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12022  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)-2018-12022  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-12023  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)-2018-12023  | 
|  CVE-2018-3258  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-3258)-2018-3258  | 
|  CVE-2018-3827  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-3827)-2018-3827  | 
|  CVE-2018-3831  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-3831)-2018-3831  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2018-5968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)-2018-5968  | 
|  CVE-2018-8012  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-8012)-2018-8012  | 
|  CVE-2018-8768  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2018-8768)-2018-8768  | 
|  CVE-2019-0204  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0204)-2019-02-04  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-0205  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)-2019-02-05  | 
|  CVE-2019-10086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)-2019-10086  | 
|  CVE-2019-10086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)-2019-10086  | 
|  CVE-2019-10086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)-2019-10086  | 
|  CVE-2019-10086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)-2019-10086  | 
|  CVE-2019-10099  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10099)-2019-10099  | 
|  CVE-2019-10172  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)-2019-10172  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-12086  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)-2019-12086  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-14439  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)-2019-14439  | 
|  CVE-2019-16869  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)-2019-16869  | 
|  CVE-2019-16869  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)-2019-16869  | 
|  CVE-2019-17566  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17566)-2019-17566  | 
|  CVE-2019-17566  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-17566)-2019-17566  | 
|  CVE-2019-7611  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2019-7611)-2019-7611  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10650  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)-2020-10650  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10672  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)-2020-10672  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10673  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)-2020-10673  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10968  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)-2020-10968  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-10969  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)-2020-10969  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11111  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)-2020-11111  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11112  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)-2020-11112  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11113  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)-2020-11113  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11619  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)-2020-11619  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11620  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)-2020-11620  | 
|  CVE-2020-11988  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-11988)-2020-11988  | 
|  CVE-2020-13692  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13692)-2020-13692  | 
|  CVE-2020-13936  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)-2020-13936  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14060  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)-2020-14060  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14061  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)-2020-14061  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14062  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)-2020-14062  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-14195  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)-2020-14195  | 
|  CVE-2020-17533  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-17533)-2020-17533  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24616  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)-2020-24616  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-24750  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)-2020-24750  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-25649  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-28491)-2020-28491  | 
|  CVE-2020-35211  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35211)-2020-35211  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35490  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)-2020-35490  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35491  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)-2020-35491  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-35728  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)-2020-35728  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36179  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)-2020-36179  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36180  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)-2020-36180  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36181  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)-2020-36181  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36182  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)-2020-36182  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36183  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)-2020-36183  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36184  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)-2020-36184  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36185  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)-2020-36185  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36186  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)-2020-36186  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36187  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)-2020-36187  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36188  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)-2020-36188  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36189  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)-2020-36189  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-36518  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)-2020-36518  | 
|  CVE-2020-9492  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2020-9492)-2020-9492  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-20190  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)-2021-20190  | 
|  CVE-2021-22573  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22573)-2021-22573  | 
|  CVE-2021-22573  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22573)-2021-22573  | 
|  CVE-2021-22573  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-22573)-2021-22573  | 
|  CVE-2021-25646  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-25646)-2021-25646  | 
|  CVE-2021-26919  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-26919)-2021-26919  | 
|  CVE-2021-28165  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-28165)-2021-28165  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-31684  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)-2021-31684  | 
|  CVE-2021-33036  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-33036)-2021-33036  | 
|  CVE-2021-33813  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-33813)-2021-33813  | 
|  CVE-2021-33813  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-33813)-2021-33813  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-34538  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)-2021-34538  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35515  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)-2021-35515  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35516  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)-2021-35516  | 
|  CVE-2021-35517  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)-2021-35517  | 
|  CVE-2021-35517  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)-2021-35517  | 
|  CVE-2021-35517  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)-2021-35517  | 
|  CVE-2021-35517  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)-2021-35517  | 
|  CVE-2021-35517  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)-2021-35517  | 
|  CVE-2021-36090  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)-2021-36090  | 
|  CVE-2021-36090  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)-2021-36090  | 
|  CVE-2021-36090  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)-2021-36090  | 
|  CVE-2021-36090  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)-2021-36090  | 
|  CVE-2021-36090  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)-2021-36090  | 
|  CVE-2021-37136  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)-2021-37136  | 
|  CVE-2021-37136  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)-2021-37136  | 
|  CVE-2021-37137  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)-2021-37137  | 
|  CVE-2021-37137  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)-2021-37137  | 
|  CVE-2021-37714  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)-2021-37714  | 
|  CVE-2021-37714  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)-2021-37714  | 
|  CVE-2021-37714  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)-2021-37714  | 
|  CVE-2021-37714  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)-2021-37714  | 
|  CVE-2021-46877  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2021-46877)-2021-46877  | 
|  CVE-2\$124758  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-24758)-2\$124758  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125647  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)-2\$125647  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$125857  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)-2\$125857  | 
|  CVE-2\$131197  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-31197)-2\$131197  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$13171  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)-2\$13171  | 
|  CVE-2\$134169  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-34169)-2\$134169  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13509  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)-2\$13509  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$13510  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)-2\$13510  | 
|  CVE-2\$136364  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)-2\$136364  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$137866  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)-2\$137866  | 
|  CVE-2\$140146  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40146)-2\$140146  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140149  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)-2\$140149  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140150  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)-2\$140150  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$140152  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)-2\$140152  | 
|  CVE-2\$141704  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-41704)-2\$141704  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-2\$142003  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)-4 avril 2003  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-04-2004  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-avril 2004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2\$14244  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-4244)-2\$14244  | 
|  CVE-2\$142890  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-42890)-2\$142890  | 
|  CVE-2\$144729  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-44729)-2\$144729  | 
|  CVE-2\$144729  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-44729)-2\$144729  | 
|  CVE-2\$144729  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-44729)-2\$144729  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145685  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)-2\$145685  | 
|  CVE-2\$145688  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2\$145688  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2\$145688  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)-2\$145688  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$145693  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)-2\$145693  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2\$146751  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)-2\$146751  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1428  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1428](https://nvd.nist.gov/vuln/detail/CVE-2023-1428)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-24580  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-24580](https://nvd.nist.gov/vuln/detail/CVE-2023-24580)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-25194  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-31418  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-31418](https://nvd.nist.gov/vuln/detail/CVE-2023-31418)  | 
|  CVE-2023-32731  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-32731](https://nvd.nist.gov/vuln/detail/CVE-2023-32731)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34610  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-34610](https://nvd.nist.gov/vuln/detail/CVE-2023-34610)  | 
|  CVE-2023-36053  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36053](https://nvd.nist.gov/vuln/detail/CVE-2023-36053)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-36478  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-36478  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-41164  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-41164](https://nvd.nist.gov/vuln/detail/CVE-2023-41164)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43665  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-43665](https://nvd.nist.gov/vuln/detail/CVE-2023-43665)  | 
|  CVE-2023-46120  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-46120](https://nvd.nist.gov/vuln/detail/CVE-2023-46120)  | 
|  CVE-2023-46695  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-46695](https://nvd.nist.gov/vuln/detail/CVE-2023-46695)  | 
|  CVE-2023-4759  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-4759](https://nvd.nist.gov/vuln/detail/CVE-2023-4759)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-5072  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)-2024-21634  | 
|  CVE-2024-24680  |  ÉLEVÉ  |  [https://nvd.nist. gov/vuln/detail/CVE](https://nvd.nist.gov/vuln/detail/CVE-2024-24680)-2024-24680  | 

## notes de publication de la version 7.2.0
<a name="emr-720-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.2.0 d'Amazon EMR. Les modifications concernent la version 7.2.0.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.2.0 application upgrades include Iceberg 1.5.0-amzn-0 and Delta 3.1.0.
+ Amazon EMR ajoute un support qui vous permet d'utiliser d'autres applications telles que HBase Flink et Hive avec la classe de stockage Amazon S3 Express One Zone.
+ Cette version ajoute la capacité de lire les objets restaurés, afin que vous puissiez lire les objets Glacier depuis un emplacement S3 avec le `S3A` protocole. Cette fonctionnalité fonctionne avec Spark, Flink et Hive.
+ Étiquettes de nœuds avec dimensionnement géré : utilisez des étiquettes de nœuds avec vos instances en fonction du type de marché ou du type de nœud pour améliorer le dimensionnement automatique à partir d'Amazon EMR. Pour plus d'informations, consultez la section [Utilisation du dimensionnement géré dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html).

**Problèmes connus**
+ Python 3.11 n'est pas pris en charge avec EMR Studio.

**Modifications, améliorations et problèmes résolus**
+ Cette version corrige un problème dans un script d'état d'instance sur le cluster qui surveille l'état de l'instance qui consommait auparavant des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads et de descripteurs de fichiers sont and/or ouverts sur le nœud.
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Cette version corrige un problème de blocage qui peut survenir lors des opérations internes de nettoyage des étapes. Cette opération gère le cycle de vie des étapes au fur et à mesure qu'elles se terminent sur le cluster EMR. Ce problème concerne les opérations critiques d'Amazon EMR, telles que le fonctionnement des étapes et le dimensionnement.
+ Cette version résout un problème AMIs selon lequel les clusters personnalisés dotés de certains fichiers journaux préexistants peuvent provoquer l'échec du démon de gestion des journaux Amazon EMR.
+ Amazon EMR 7.2.0 met à niveau le daemon Amazon EMR responsable de la gestion des clusters et des activités de surveillance du SDK v1 vers v2. AWS 
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-720-release.html)

## Versions Java 7.2.0 par défaut
<a name="emr-720-jdk"></a>

Les versions 7.2 et supérieures d'Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications compatibles avec Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.2.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 7.2.0
<a name="emr-720-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.1.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.11.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,15,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.16.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.32.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.11.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.2.2 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,63,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,18.1-amzn-1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,18.1-amzn-1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.3.6-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.6-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.6-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2,4,17-amzn-6 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2,4,17-amzn-6 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2,4,17-amzn-6 | HBase client en ligne de commande. | 
| hbase-rest-server | 2,4,17-amzn-6 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2,4,17-amzn-6 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2,4,17-amzn-6 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-11 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-11 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-11 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-11 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-11 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-11 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-11 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0,14.1-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0,14.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0,14.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0,14.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1,5.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,285-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,285-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,285-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 436-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 436-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 436-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 24.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-9 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-9 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.1-amzn-1 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.1-amzn-1 | ZooKeeper client en ligne de commande. | 

## Classifications de configuration 7.2.0
<a name="emr-720-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.2.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.2.0
<a name="720-changelog"></a>


**Journal des modifications pour la version 7.2.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 03/09/2025 | Révision des documents | Note de mise à jour d'Amazon EMR 7.2.0 ajoutée | 
| 25/07/2024 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.2.0 publiées pour la première fois | 
| 16/07/2024 | Première version | Amazon EMR 7.2.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.1.0
<a name="emr-710-release"></a>

## Versions de l'application 7.1.0
<a name="emr-710-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 2,23,18, 1,12,656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3.9 | 
| Scala | 2,1,18 | 2,1,17 | 2,1,17 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 1,18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 2,4,17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,285-amzn-1 | 0,285-amzn-0 | 0,284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

## notes de publication de la version 7.1.0
<a name="emr-710-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 7.1.0 d'Amazon EMR. Les modifications concernent la version 7.1.0.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.1.0 application upgrades include Livy 0.8.0, Trino 435, and ZooKeeper 3.9.1.
+ [https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-node-replacement.html](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-node-replacement.html) défectueux — Avec Amazon EMR 7.1.0 et versions ultérieures, le remplacement de nœuds défectueux est activé par défaut. Amazon EMR remplacera donc facilement vos nœuds défectueux. Pour éviter d'affecter vos flux de travail existants sur les versions 7.0.0 et antérieures d'Amazon EMR, le remplacement des nœuds défectueux est désactivé si vous avez activé la protection contre la résiliation dans votre cluster.
+ [https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-AmazonCloudWatchAgent.html](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-AmazonCloudWatchAgent.html) : configurez l' CloudWatch agent pour utiliser des métriques système supplémentaires, ajouter des métriques d'application et modifier la destination des métriques avec l'API de configuration Amazon EMR.

**Problèmes connus**
+ L'application JupyterEnterpriseGateway (JEG) ne supporte pas Python 3.11 dans cette version.
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Alors qu'Amazon EMR 7.1.0 prend en charge Python 3.9 par défaut, Livy 0.8.0 et Spark dans Amazon EMR 7.1.0 prennent en charge Python 3.11.
+ Cette version corrige le problème de devoir exécuter chaque ligne une par une lors de l'utilisation PySpark avec Python version 3.11.
+ **Mise à niveau de Zeppelin** — Amazon EMR 7.1.0 inclut une mise à niveau de Zeppelin vers le SDK pour Java v2. AWS Cette mise à niveau permet à un ordinateur portable Zeppelin S3 d'accepter un fournisseur de matériel de chiffrement personnalisé. Le AWS SDK pour Java v2 supprime EncryptionMaterialsProvider l'interface. Lorsque vous effectuez une mise à niveau vers Amazon EMR 7.1.0, vous devez implémenter l'[interface Keyring](https://github.com/aws/amazon-s3-encryption-client-java/blob/main/src/main/java/software/amazon/encryption/s3/materials/Keyring.java) si vous souhaitez utiliser un chiffrement personnalisé. Pour un exemple de mise en œuvre de l'interface Keyring, consultez [ KmsKeyring.java.](https://github.com/aws/amazon-s3-encryption-client-java/blob/a5d714fe27f97793997e41745939ef7da8a22167/src/main/java/software/amazon/encryption/s3/materials/KmsKeyring.java#L36)
+ Lors de la mise à niveau vers la version 7.1.0 d'Amazon EMR, modifiez votre fournisseur de clés personnalisé pour le chiffrement du disque local afin de générer des clés à l'aide de l'algorithme AES de. AES/GCM/NoPadding Si vous ne mettez pas à jour l'algorithme, la création du cluster risque d'échouer avec le message d'erreur. `Local disk encryption failed on master instance (i-123456789) due to internal error.` Pour plus d'informations sur la création d'un fournisseur de clés personnalisé, voir [Création d'un fournisseur de clés personnalisé](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-enable.html#emr-custom-keys).
+ Amazon EMR 7.1.0 améliore la résilience d'un nœud dans des conditions d'espace disque restreint en améliorant la logique de troncature des journaux pour les fichiers dont les descripteurs de fichier sont ouverts.
+ Cette version améliore la logique de codage et de décodage afin de minimiser le risque de corruption des données et de défaillance du nœud, les démons Amazon EMR lisant et écrivant des fichiers lors du redémarrage d'un nœud.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-710-release.html)

## Versions Java 7.1.0 par défaut
<a name="emr-710-jdk"></a>

Amazon EMR version 7.1 et supérieure est livré avec Amazon Corretto 17 (basé sur OpenJDK) par défaut pour les applications qui prennent en charge Corretto 17 (JDK 17), à l'exception d'Apache Livy.

Le tableau suivant indique les versions Java par défaut pour les applications dans Amazon EMR 7.1.0. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 7.1.0
<a name="emr-710-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.0.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-amazon-cloudwatch-agent | 1,300032,2-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.10.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,14,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.31.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.10.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.2.2 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,62,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1,18.1-amzn-0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1,18.1-amzn-0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.3.6-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.6-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.6-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2,4,17-amzn-5 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2,4,17-amzn-5 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2,4,17-amzn-5 | HBase client en ligne de commande. | 
| hbase-rest-server | 2,4,17-amzn-5 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2,4,17-amzn-5 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2,4,17-amzn-5 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-10 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-10 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-10 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-10 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-10 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-10 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-10 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.14.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.14.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.14.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.14.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.4.3-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.8.0 - incubation | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0,284-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0,284-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0,284-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 435-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 435-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 435-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.0-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.0-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.0-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.0-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.10.0-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-8 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-8 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.9.1-amzn-0 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.9.1-amzn-0 | ZooKeeper client en ligne de commande. | 

## Classifications de configuration 7.1.0
<a name="emr-710-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-7.1.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-logback | Modifiez les valeurs dans ZooKeeper le fichier logback.xml. | Restarts Zookeeper server. | 
| emr-metrics | Modifiez les paramètres métriques EMR pour ce nœud. | Restarts the CloudWatchAgent service. | 

## journal des modifications 7.1.0
<a name="710-changelog"></a>


**Journal des modifications pour la version 7.1.0 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 03/09/2025 | Révision des documents | Les notes de publication d'Amazon EMR 7.1.0 ont ajouté un problème connu | 
| 2024-05-10 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.1.0 publiées pour la première fois | 
| 2024-05-10 | Publication de documents | Notes de mise à jour d'Amazon EMR 7.1.0 publiées pour la première fois | 
| 08-05-2024/ | Déploiement terminé | [Amazon EMR 7.1.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 23/04/2024 | Première version | Amazon EMR 7.1.0 a été déployé pour la première fois dans les régions commerciales initiales | 

# Amazon EMR version 7.0.0
<a name="emr-700-release"></a>

## Versions d’application 7.0.0
<a name="emr-700-app-versions"></a>

Cette version inclut les applications suivantes : [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2,25,70, 1,12,747 | 2,23,18, 1,12,705 | 2,23,18, 1,12,656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3,9, 3,11 | 3,9, 3,11 | 3,9, 3,11 | 3.9 | 
| Scala | 2,1,18 | 2,1,17 | 2,1,17 | 2,1,17 | 
| AmazonCloudWatchAgent | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1,300032,2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1,18.1-amzn-2 | 1,18.1-amzn-1 | 1,18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2,4,17-amzn-7 | 2,4,17-amzn-6 | 2,4,17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0,15,0-amzn-0 | 0,14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1,5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0 - incubation | 0.8.0 - incubation | 0.8.0 - incubation | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0,285-amzn-1 | 0,285-amzn-0 | 0,284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0,10.2 - amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

## Notes de mise à jour 7.0.0
<a name="emr-700-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 7.0.0. Les modifications ont été apportées à la version 6.15.0.

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 7.0.0 application upgrades include Python 3.9, Spark 3.5, Flink 1.18, and Delta 3.0. Cette version ajoute également la prise en charge de l’application [CloudWatch Agent Amazon](emr-AmazonCloudWatchAgent.md) et abandonne la prise en charge de Ganglia.
+ **Amazon Corretto 17** – Les versions 7.0 et ultérieures d’Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications qui prennent en charge Corretto 17 (JDK 17), à l’exception d’Apache Livy. Pour plus d’informations sur les versions de JDK prises en charge pour les applications de cette version, voir la rubrique [Versions Java par défaut 7.0.0](#emr-700-jdk).
+ **Amazon Linux 2023** — Avec la version 7.0, les clusters Amazon EMR s'exécutent désormais AL2023 par défaut. Pour savoir comment cela affecte la version d’AMI par défaut, voir la rubrique [Considérations relatives aux mises à jour](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html#emr-default-ami-managing) du *Guide de gestion Amazon EMR*. Notez également que Python 2.7 AL2023 a été supprimé, de sorte que tous les composants nécessitant Python doivent désormais être écrits avec Python 3.
+ **S3 sur Outposts avec `s3a`** – Amazon EMR prend désormais en charge les compartiments Amazon S3 sur Outposts avec le système de fichiers `s3a`. Pour plus d’informations sur S3 sur Outposts, voir la rubrique [Qu’est-ce que S3 sur Outposts ?](https://docs.aws.amazon.com/AmazonS3/latest/userguide/S3onOutposts.html) du *Guide de l’utilisateur Amazon Simple Storage Service*.

**Problèmes connus**
+ Notez que vous ne pouvez pas exécuter plus d'une ligne à la fois si vous utilisez PySpark Python 3.10 ou version ultérieure. Vous devez exécuter chaque ligne une par une.
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Pour maintenir l’état de toutes les instances d’un cluster, Amazon EMR s’intègre à Apache YARN, Apache HDFS et Kerberos. Avec la version 7.0, nous avons amélioré ces intégrations afin de supprimer en toute sécurité l’état des instances arrêtées en raison d’une mise à l’échelle ou d’autres opérations. Cette amélioration est particulièrement importante pour les clusters longue durée pour lesquels la mise à l’échelle gérée est activée, car font régulièrement l’objet de mises à l’échelle et accumulent des milliers d’instances arrêtées au cours de leur durée de vie.
+ Cette version améliore la configuration de Kerberos afin d’inclure uniquement la prise en charge des chiffrements basés sur AES. Le KDC Kerberos avec des chiffrements non basés sur AES n’est plus pris en charge avec les clusters EMR qui s’exécutent sur la version 7.0.0 et les versions ultérieures d’Amazon EMR. Les chiffrements basés sur AES offrent la meilleure sécurité pour vos clusters.
+ Dans le cadre de la migration vers le AWS SDK 2.x, Amazon EMR 7.0 inclut une mise à jour du connecteur Spark Kinesis pour des raisons de compatibilité. Cette mise à jour n’est pas disponible dans la version communautaire d’Apache Spark. Si vous utilisez le connecteur Spark Kinesis sur une version d’Amazon EMR antérieure à la 7.0, vous devez migrer les codes de vos applications pour qu’ils s’exécutent sur SDK 2.x avant de migrer vos charges de travail vers Amazon EMR 7.0. Pour de plus amples informations, veuillez consulter [Migration du connecteur Spark Kinesis vers le SDK 2.x pour Amazon EMR 7.0](migrating-spark-kinesis.md).
+ Le `aws-sagemaker-spark-sdk` composant n'est pas disponible à partir d'Amazon EMR 7.x.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-700-release.html)

## Versions Java par défaut 7.0.0
<a name="emr-700-jdk"></a>

La version 7.0 et les versions ultérieures d’Amazon EMR sont fournies par défaut avec Amazon Corretto 17 (basé sur OpenJDK) pour les applications qui prennent en charge Corretto 17 (JDK 17), à l’exception d’Apache Livy.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 7.0.0 : Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 7.0.0
<a name="emr-700-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| adot-java-agent | 1,31,0 | Agent Java qui collecte des métriques à partir des démons d’application. | 
| delta | 3.0.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-amazon-cloudwatch-agent | 1.300031.1-amzn-0 | Application qui collecte des métriques au niveau interne du système ainsi que des métriques d’application personnalisées à partir d’instances Amazon EC2. | 
| emr-ddb | 5.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.9.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3,13,0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.30.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.9.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.2.1 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,61,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.18.0-amzn-0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.18.0-amzn-0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| hadoop-client | 3.3.6-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.6-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.6-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-4 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-4 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-4 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-4 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-4 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-4 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-9 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-9 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.14.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.14.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.14.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.14.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.4.2-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.283-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.283-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.283-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 426-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 426-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 426-amzn-1 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.3.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.5.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.5.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.5.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.5.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.10.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-7 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-7 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2,4,58 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 7.0.0
<a name="emr-700-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-7.0.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 7.0.0
<a name="700-changelog"></a>


**Journal des modifications pour la version 7.0.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 03/09/2025 | Révision des documents | Les notes de publication d'Amazon EMR 7.0.0 ont ajouté un problème connu | 
| 29/12/2023 | Déploiement terminé | [Amazon EMR 7.0.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 28/12/2023 | Publication de documents | Notes de mise à jour d’Amazon EMR 7.0.0 publiées pour la première fois | 
| 19/12/2023 | Première version | Amazon EMR 7.0.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Versions Amazon EMR 6.x
<a name="emr-release-6x"></a>

Cette section contient les versions des applications, les notes de mise à jour, les versions des composants et les classifications de configuration disponibles dans chaque version 6.x d'Amazon EMR.

Lorsque vous lancez un cluster, vous pouvez choisir parmi plusieurs versions d'Amazon EMR. Vous pouvez ainsi tester et utiliser des versions d'applications qui répondent à vos exigences de compatibilité. Vous spécifiez le numéro de version avec l’*étiquette de version*. Les étiquettes de version sont sous la forme `emr-x.x.x`. Par exemple, `emr-7.12.0`.

Les nouvelles versions d'Amazon EMR sont mises à disposition dans différentes régions sur une période de plusieurs jours, en commençant par la première région à la date de sortie initiale. Il est possible que la dernière version ne soit pas disponible dans votre région pendant cette période.

Pour un tableau complet des versions des applications dans chaque version 6.x d'Amazon EMR, consultez [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md).

**Topics**
+ [

# Versions des applications dans les versions 6.x d'Amazon EMR
](emr-release-app-versions-6.x.md)
+ [

# Amazon EMR version 6.15.0
](emr-6150-release.md)
+ [

# Amazon EMR version 6.14.0
](emr-6140-release.md)
+ [

# Amazon EMR version 6.13.0
](emr-6130-release.md)
+ [

# Amazon EMR version 6.12.0
](emr-6120-release.md)
+ [

# Amazon EMR version 6.11.1
](emr-6111-release.md)
+ [

# Amazon EMR version 6.11.0
](emr-6110-release.md)
+ [

# Amazon EMR version 6.10.1
](emr-6101-release.md)
+ [

# Amazon EMR version 6.10.0
](emr-6100-release.md)
+ [

# Amazon EMR version 6.9.1
](emr-691-release.md)
+ [

# Amazon EMR version 6.9.0
](emr-690-release.md)
+ [

# Amazon EMR version 6.8.1
](emr-681-release.md)
+ [

# Amazon EMR version 6.8.0
](emr-680-release.md)
+ [

# Amazon EMR version 6.7.0
](emr-670-release.md)
+ [

# Amazon EMR version 6.6.0
](emr-660-release.md)
+ [

# Amazon EMR version 6.5.0
](emr-650-release.md)
+ [

# Amazon EMR version 6.4.0
](emr-640-release.md)
+ [

# Amazon EMR version 6.3.1
](emr-631-release.md)
+ [

# Amazon EMR version 6.3.0
](emr-630-release.md)
+ [

# Amazon EMR version 6.2.1
](emr-621-release.md)
+ [

# Amazon EMR version 6.2.0
](emr-620-release.md)
+ [

# Amazon EMR version 6.1.1
](emr-611-release.md)
+ [

# Amazon EMR version 6.1.0
](emr-610-release.md)
+ [

# Amazon EMR version 6.0.1
](emr-601-release.md)
+ [

# Amazon EMR version 6.0.0
](emr-600-release.md)

# Versions des applications dans les versions 6.x d'Amazon EMR
<a name="emr-release-app-versions-6.x"></a>

Le tableau suivant répertorie les versions des applications disponibles dans chaque version 6.x d'Amazon EMR.


**Informations sur la version de l'application**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2.20.160-amzn-0, 1.12.569 | 1,12,543 | 1,12,513 | 1,12,490 | 1,12,446 | 1,12,446 | 1,12,397 | 1,12,397 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,31 | 1,12,31 | 1,1,977 | 1,1,977 | 1,1880 | 1,1880 | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 350 | 350 | 343 | 343 | 338 | 338 |  -  |  -  | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

# Amazon EMR version 6.15.0
<a name="emr-6150-release"></a>

## Versions d’application 6.15.0
<a name="emr-6150-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2.20.160-amzn-0, 1.12.569 | 1,12,543 | 1,12,513 | 1,12,490 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.15.0
<a name="emr-6150-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.15.0. Les modifications ont été apportées à la version 6.14.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.15.0](#6150-changelog).

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426..
+ **[Lancement plus rapide pour les clusters EMR qui s’exécutent sur EC2](https://aws.amazon.com/about-aws/whats-new/2023/11/amazon-emr-ec2-clusters-5-minutes-less/)** – Le lancement d’un cluster Amazon EMR sur EC2 est désormais jusqu’à 35 % plus rapide. Grâce à cette amélioration, la plupart des clients peuvent lancer leurs clusters en moins de 5 minutes.
+ **[CodeWhisperer pour EMR Studio](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-codewhisperer.html)** — Vous pouvez désormais utiliser Amazon avec CodeWhisperer Amazon EMR Studio pour obtenir des recommandations en temps réel lorsque vous écrivez du code. JupyterLab CodeWhisperer peut compléter vos commentaires, terminer des lignes de code individuelles, faire line-by-line des recommandations et générer des fonctions entièrement formées.
+ **[Redémarrage accéléré des tâches avec Flink](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-restart.html)** – Avec Amazon EMR 6.15.0 et versions ultérieures, plusieurs nouveaux mécanismes sont disponibles pour Apache Flink afin d’améliorer le temps de redémarrage des tâches lors des opérations de récupération ou de mise à l’échelle des tâches. Cela permet d’optimiser la vitesse de récupération et de redémarrage des graphes d’exécution afin d’améliorer la stabilité des tâches.
+ **[Contrôle d'accès détaillé et au niveau des tables pour les formats de tables ouvertes : avec Amazon EMR 6.15.0 et versions ultérieures, lorsque vous exécutez des tâches Spark sur Amazon EMR sur des clusters EC2 qui accèdent aux données du catalogue de données AWS Glue, vous pouvez AWS Lake Formation appliquer des autorisations au niveau des tables, des lignes, des colonnes et des cellules aux tables basées](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lf-enable.html)** sur Hudi, Iceberg ou Delta Lake.
+ **Mise à niveau de Hadoop** – Amazon EMR 6.15.0 inclut une mise à niveau d’Apache Hadoop vers la version 3.3.6. Hadoop 3.3.6 était la dernière version au moment du déploiement d’Amazon EMR 6.15, publiée par Apache en juin 2023. Les versions précédentes d’Amazon EMR (6.9.0 à 6.14.x) utilisaient Hadoop 3.3.3.

  La mise à niveau inclut des centaines d’améliorations et de correctifs, ainsi que des fonctionnalités telles que des paramètres de nœud de données reconfigurables, l’option `DFSAdmin` qui permet de lancer des opérations de reconfiguration en bloc sur tous les nœuds de données actifs et une API vectorielle qui permet aux lecteurs à forte densité de recherche de spécifier plusieurs plages à lire. Hadoop 3.3.6 ajoute également la prise en charge du HDFS APIs et de la sémantique à son journal d'écriture anticipée (WAL), afin qu' HBase il puisse fonctionner sur d'autres implémentations de systèmes de stockage. *Pour plus d’informations, consultez les journaux des modifications pour les versions [3.3.4](https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/release/3.3.4/CHANGELOG.3.3.4.html), [3.3.5](https://hadoop.apache.org/docs/r3.3.5/hadoop-project-dist/hadoop-common/release/3.3.5/CHANGELOG.3.3.5.html) et [3.3.6](https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/release/3.3.6/CHANGELOG.3.3.6.html) dans la documentation Apache Hadoop*.
+ **Support du AWS SDK pour Java, version** [2 - Les applications Amazon EMR 6.15.0 peuvent utiliser les [versions 1.12.569 ou 2.20.160 du SDK pour AWS Java si l'application prend en charge la version v2](https://github.com/aws/aws-sdk-java/tree/1.12.569).](https://github.com/aws/aws-sdk-java-v2/tree/2.20.160) Le AWS SDK pour Java 2.x est une réécriture majeure de la base de code de la version 1.x. Il repose sur Java 8\$1 et ajoute plusieurs fonctionnalités fréquemment demandées. Cela inclut la prise en charge d’E/S non bloquantes et la possibilité de brancher une implémentation HTTP différente au moment de l’exécution. Pour plus d’informations, notamment un **Guide de migration du kit SDK pour la version 1 de Java version la version 2**, voir le guide du [Kit AWS SDK pour Java, version 2](https://docs.aws.amazon.com/sdk-for-java).

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Pour améliorer vos clusters EMR haute disponibilité, cette version assure la connectivité aux démons Amazon EMR sur un hôte local utilisant des points de terminaison IPv6.
+ Cette version permet au protocole TLS 1.2 de communiquer avec les nœuds ZooKeeper provisionnés sur tous les nœuds principaux de votre cluster à haute disponibilité.
+ Cette version améliore la gestion des fichiers journaux de ZooKeeper transactions conservés sur les nœuds principaux afin de minimiser les scénarios dans lesquels les fichiers journaux dépassent les limites et interrompent les opérations du cluster.
+ Cette version accentue la résilience de la communication intra-nœud pour les clusters EMR haute disponibilité. Cette amélioration réduit le risque d’échec des actions d’amorçage ou de démarrage du cluster.
+ Tez dans Amazon EMR 6.15.0 introduit des configurations que vous pouvez spécifier pour ouvrir de manière asynchrone les divisions d’entrée dans une division groupée Tez. Cela permet d’accélérer les performances des requêtes de lecture lorsqu’il existe un grand nombre de divisions d’entrée dans une seule division groupée Tez. Pour plus d’informations, consultez la rubrique [Ouverture fractionnée asynchrone Tez](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/tez-configure.html#tez-configure-async).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6150-release.html)

## Versions Java par défaut 6.15.0
<a name="emr-6150-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.15.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.15.0
<a name="emr-6150-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.8.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.12.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.29.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.8.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.2.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,60,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.1-amzn-1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.6-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.6-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.6-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-3 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-3 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-8 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-8 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-8 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-8 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-8 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-8 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-8 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.14.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.14.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.14.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.14.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.4.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.283-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.283-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.283-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 426-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 426-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 426-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.1-amzn-2 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.1-amzn-2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.1-amzn-2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.1-amzn-2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.08.1-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-6 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-6 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.15.0
<a name="emr-6150-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.15.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.15.0
<a name="6150-changelog"></a>


**Journal des modifications pour la version 6.15.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.15.0 ont ajouté un problème connu | 
| 17/11/2023 | Publication de documents | Notes de mise à jour d’Amazon EMR 6.15.0 publiées pour la première fois | 
| 17/11/2023 | Déploiement terminé | [Amazon EMR 6.15.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 13/11/2023 | Première version | Amazon EMR 6.15.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.14.0
<a name="emr-6140-release"></a>

## Versions d’application 6.14.0
<a name="emr-6140-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,543 | 1,12,513 | 1,12,490 | 1,12,446 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 
| Flink | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 
| HCatalog | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hadoop | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 
| Hive | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hudi | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 
| Trino (PrestoSQL) | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.14.0
<a name="emr-6140-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.14.0. Les modifications ont été apportées à la version 6.13.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.14.0](#6140-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.14.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-2, Flink 1.17.1, Iceberg 1.3.1, and Trino 422.
+ La [mise à l'échelle gérée par Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) est désormais disponible dans la région `ap-southeast-3` Asie-Pacifique (Jakarta) pour les clusters que vous créez avec Amazon EMR 6.14.0 ou version ultérieure.

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ La version 6.14.0 optimise la gestion des journaux avec Amazon EMR exécuté sur Amazon EC2. C'est pourquoi vous constaterez peut-être une légère réduction des coûts de stockage pour les journaux de votre cluster.
+ La version 6.14.0 améliore le flux de travail de mise à l'échelle afin de prendre en compte les différentes instances principales dont la taille varie considérablement pour leurs volumes Amazon EBS. Cette amélioration s'applique uniquement aux nœuds principaux ; les opérations de réduction des nœuds de tâches ne sont pas affectées.
+ La version 6.14.0 améliore la façon dont Amazon EMR interagit avec les applications open source telles que Apache Hadoop YARN ResourceManager and HDFS NameNode. Cette amélioration réduit le risque de retards opérationnels liés à la mise à l'échelle du cluster et atténue les échecs de démarrage dus à des problèmes de connectivité avec les applications open source.
+ La version 6.14.0 optimise l'installation des applications au lancement du cluster. Cela améliore les temps de démarrage du cluster pour certaines combinaisons d'applications Amazon EMR.
+ La version 6.14.0 corrige un problème où les opérations de réduction de cluster pouvaient se bloquer lorsqu'un cluster exécuté dans un VPC avec un domaine personnalisé rencontrait un redémarrage de nœud principal ou de nœud de tâche.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6140-release.html)

## Versions Java par défaut 6.14.0
<a name="emr-6140-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.14.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.14.0
<a name="emr-6140-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.7.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.11.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.28.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.7.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,59,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.1-amzn-0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-6 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-2 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-2 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-2 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-7 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-7 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.1-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.1-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.1-amzn-2 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.1-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.3.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.281-amzn-2 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.281-amzn-2 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.281-amzn-2 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 422-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 422-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 422-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.1-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.1-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.1-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.1-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.06.0-amzn-2 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-5 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-5 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.14.0
<a name="emr-6140-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.14.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.14.0
<a name="6140-changelog"></a>


**Journal des modifications pour la version 6.14.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.14.0 ont ajouté un problème connu | 
| *02/11/2023* | Déploiement terminé | [Amazon EMR 6.14.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 10/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.14.0 publiées pour la première fois | 
| 04/10/2023 | Première version | Amazon EMR 6.14.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.13.0
<a name="emr-6130-release"></a>

## Versions d’application 6.13.0
<a name="emr-6130-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,513 | 1,12,490 | 1,12,446 | 1,12,446 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 
| HCatalog | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hadoop | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 
| Hive | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hudi | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 
| Trino (PrestoSQL) | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.13.0
<a name="emr-6130-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.13.0. Les modifications ont été apportées à la version 6.12.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.13.0](#6130-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.13.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-1, CUDA Toolkit 11.8.0, and JupyterHub 1.5.0.

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ La version 6.13.0 améliore le démon de gestion des journaux Amazon EMR afin de garantir que tous les journaux sont chargés à une cadence régulière sur Amazon S3 lorsqu'une commande de résiliation de cluster est émise. Cela permet de résilier plus rapidement les clusters.
+ La version 6.13.0 améliore les capacités de gestion des journaux Amazon EMR afin de garantir un chargement cohérent et en temps voulu de tous les fichiers journaux sur Amazon S3. Cela est particulièrement avantageux pour les clusters EMR de longue durée.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6130-release.html)

## Versions Java par défaut 6.13.0
<a name="emr-6130-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.13.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.13.0
<a name="emr-6130-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.6.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.10.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.27.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.6.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,58,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-6 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-6 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.1-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.3.0-amzn-1 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.281-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.281-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.281-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 414-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 414-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 414-amzn-1 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.06.0-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-4 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-4 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.13.0
<a name="emr-6130-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.13.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.13.0
<a name="6130-changelog"></a>


**Journal des modifications pour la version 6.13.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.13.0 ont ajouté un problème connu | 
| *23/09/2023* | Déploiement terminé | [Amazon EMR 6.13.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 12/09/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.13.0 publiées pour la première fois | 
| 01/09/2023 | Première version | Amazon EMR 6.13.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.12.0
<a name="emr-6120-release"></a>

## Versions d’application 6.12.0
<a name="emr-6120-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,490 | 1,12,446 | 1,12,446 | 1,12,397 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hadoop | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 
| Hive | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 
| Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 
| Trino (PrestoSQL) | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.12.0
<a name="emr-6120-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.12.0. Les modifications ont été apportées à la version 6.11.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.12.0](#6120-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
+ Les versions 6.12.0 et supérieures d'Amazon EMR prennent en charge l'intégration LDAP avec Apache Livy, Apache Hive via HiveServer 2 (HS2), Trino, Presto et Hue. Vous pouvez également installer Apache Spark et Apache Hadoop sur un cluster EMR utilisant la version 6.12.0 ou supérieure et les configurer pour utiliser LDAP. Pour plus d'informations, consultez [Utilisation de serveurs Active Directory ou LDAP pour l'authentification avec Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/ldap.html).

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Les versions 6.12.0 et supérieures d'Amazon EMR fournissent la prise en charge de l'exécution Java 11 pour Flink. Pour de plus amples informations, veuillez consulter [Configurer Flink pour qu'il fonctionne avec Java 11](flink-configure.md#flink-configure-java11).
+ La version 6.12.0 ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ La version 6.12.0 corrige un problème à cause duquel les opérations de réduction de la taille du cluster peuvent se bloquer lorsqu'un nœud principal en cours de mise hors service appropriée tombe en panne pour une raison quelconque avant d'être complètement mis hors service.
+ La version 6.12.0 améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ La version 6.12.0 améliore les performances et l'efficacité du service de surveillance de l'état d'Amazon EMR en augmentant la vitesse à laquelle il enregistre les changements d'état des instances. Cette amélioration réduit le risque de dégradation des performances des nœuds de cluster qui exécutent plusieurs outils clients personnalisés ou des applications tierces.
+ La version 6.12.0 améliore les performances du démon de gestion des journaux sur le cluster pour Amazon EMR. Par conséquent, les risques de dégradation des performances sont moindres avec les clusters EMR qui exécutent des étapes avec une simultanéité élevée.
+ Avec la version 6.12.0 d'Amazon EMR, le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ La version 6.12.0 inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ La version 6.12.0 permet la rotation des journaux pour les journaux YARN Timeline Server. Cela permet de minimiser les scénarios de surutilisation des disques, en particulier pour les clusters de longue durée.
+ La taille du volume racine par défaut est passée à 15 Go dans Amazon EMR 6.10.0 et versions ultérieures. Les versions antérieures ont une taille de volume racine par défaut de 10 Go.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6120-release.html)

## Versions Java par défaut 6.12.0
<a name="emr-6120-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.12.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.12.0
<a name="emr-6120-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.9.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.26.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.5.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,57,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-5 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-5 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-5 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-5 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-5 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-5 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-5 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.3.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.281-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.281-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.281-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 414-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 414-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 414-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-3 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-3 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.12.0
<a name="emr-6120-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.12.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.12.0
<a name="6120-changelog"></a>


**Journal des modifications pour la version 6.12.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.12.0 ont ajouté un problème connu | 
| 27/07/2023 | Documentation mise à jour | Mise à jour des options Java pour la version 6.12 et ajout du tutoriel Oozie pour la mise à jour de la JVM | 
| 21/07/2023 | Déploiement terminé | [Amazon EMR 6.12.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 21/07/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.12.0 publiées pour la première fois | 
| 12/07/2023 | Première version | Amazon EMR 6.12.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.11.1
<a name="emr-6111-release"></a>

## Versions d’application 6.11.1
<a name="emr-6111-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,446 | 1,12,446 | 1,12,397 | 1,12,397 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 
| HCatalog | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hadoop | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 
| Hive | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hudi | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.11.1
<a name="emr-6111-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.11.1. Les modifications ont été apportées à la version 6.11.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.11.1](#6111-changelog).

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ En raison d'un conflit de verrouillage, un nœud peut se retrouver bloqué s'il est ajouté ou supprimé en même temps qu'il est mis hors service. Par conséquent, le gestionnaire de ressources Hadoop (YARN) ne répond plus et affecte tous les conteneurs entrants et en cours d'exécution.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version inclut des correctifs de sécurité pour Hue et HBase.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige un problème lié aux métriques du FairShare planificateur lorsque Node Label est activé pour Hadoop.
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6111-release.html)

## Versions des composants 6.11.1
<a name="emr-6111-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.8.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.25.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.4.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,56,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-3.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-3.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-3.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-1.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-1.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-1.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-1.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-1.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-1.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-4.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-4.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-4.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-4.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-4.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-4.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.279-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.279-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 410-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 410-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 410-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.2-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.2-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.2-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-2.1 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-2.1 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.11.1
<a name="emr-6111-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.11.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.11.1
<a name="6111-changelog"></a>


**Journal des modifications pour la version 6.11.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.11.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.11.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.11.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.11.0
<a name="emr-6110-release"></a>

## Versions d’application 6.11.0
<a name="emr-6110-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,446 | 1,12,397 | 1,12,397 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hadoop | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 
| Hive | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hudi | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.11.0
<a name="emr-6110-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.11.0. Les modifications ont été apportées à la version 6.10.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6110-release.html#6110-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.11.0 prend en charge Apache Spark 3.3.2-amzn-0, Apache Spark RAPIDS 23.02.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.0-amzn-0, Apache Iceberg 1.2.0-amzn-0, Trino 410-amzn-0 et PrestoDB 0.279-amzn-0.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Avec Amazon EMR 6.11.0, le connecteur DynamoDB a été mis à niveau vers la version 5.0.0. La version 5.0.0 utilise AWS SDK for Java 2.x. Les versions précédentes utilisaient la version AWS SDK pour Java 1.x. À la suite de cette mise à niveau, nous vous conseillons vivement de tester votre code avant d'utiliser le connecteur DynamoDB avec Amazon EMR 6.11.
+ Lorsque le connecteur DynamoDB pour Amazon EMR 6.11.0 appelle le service DynamoDB, il utilise la valeur de région que vous fournissez pour la propriété `dynamodb.endpoint`. Nous vous recommandons de configurer également `dynamodb.region` lorsque vous utilisez `dynamodb.endpoint`, et que les deux propriétés ciblent la même Région AWS. Si vous l'utilisez `dynamodb.endpoint` et que vous ne le configurez pas`dynamodb.region`, le connecteur DynamoDB pour Amazon EMR 6.11.0 renverra une exception de région non valide et tentera de réconcilier vos informations à Région AWS partir du service de métadonnées d'instance Amazon EC2 (IMDS). Si le connecteur ne parvient pas à récupérer la région depuis IMDS, la valeur par défaut est USA Est (Virginie du Nord) (`us-east-1`). L'erreur suivante illustre l'exception de région non valide que vous pourriez obtenir si vous ne configurez pas correctement la `dynamodb.region` propriété : `error software.amazon.awssdk.services.dynamodb.model.DynamoDbException: Credential should be scoped to a valid region.` pour plus d'informations sur les classes concernées par la AWS SDK pour Java mise à niveau vers la version 2.x, consultez le commit [Upgrade AWS SDK pour Java from 1.x to 2.x (\$1175)](https://github.com/awslabs/emr-dynamodb-connector/commit/1dec9d1972d3673c3fae6c6ea51f19f295147ccf) dans le GitHub dépôt du connecteur Amazon EMR - DynamoDB.
+ Cette version corrige un problème où les données des colonnes deviennent `NULL` lorsque vous utilisez Delta Lake pour stocker les données de la table Delta dans Amazon S3 après l'opération de changement de nom de colonne. Pour plus d'informations sur cette fonctionnalité expérimentale dans Delta Lake, consultez [Opération de changement de nom de colonne](https://docs.delta.io/latest/delta-batch.html#rename-columns) dans le guide de l'utilisateur Delta Lake.
+ La version 6.11.0 résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ La version 6.11.0 améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ La version 6.11.0 corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ La version 6.11.0 résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ La taille du volume racine par défaut est passée à 15 Go dans Amazon EMR 6.10.0 et versions ultérieures. Les versions antérieures ont une taille de volume racine par défaut de 10 Go.
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6110-release.html)

## Versions des composants 6.11.0
<a name="emr-6110-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.8.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.25.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.4.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,56,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.279-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.279-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 410-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 410-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 410-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.2-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.2-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.2-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-2 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-2 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.11.0
<a name="emr-6110-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.11.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.11.0
<a name="6110-changelog"></a>


**Journal des modifications pour la version 6.11.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/08/2023 | Mettre à jour | Correction d'un problème introduit avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 09/06/2023 | Déploiement terminé | [Amazon EMR 6.11.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 09/06/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.11.0 publiées pour la première fois | 
| 08/06/2023 | Première version | Amazon EMR 6.11.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.10.1
<a name="emr-6101-release"></a>

## Versions d’application 6.10.1
<a name="emr-6101-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,397 | 1,12,397 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 
| HCatalog | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hadoop | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 
| Hive | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hudi | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 
| Trino (PrestoSQL) | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.10.1
<a name="emr-6101-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.10.1. Les modifications ont été apportées à la version 6.10.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.10.1](#6101-changelog).

**Problèmes connus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 

**Modifications, améliorations et problèmes résolus**
+ En raison d'un conflit de verrouillage, un nœud peut se retrouver bloqué s'il est ajouté ou supprimé en même temps qu'il est mis hors service. Par conséquent, le gestionnaire de ressources Hadoop (YARN) ne répond plus et affecte tous les conteneurs entrants et en cours d'exécution.
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Le collecteur de métriques n'enverra aucune métrique au plan de contrôle après le basculement du nœud primaire dans les clusters avec la configuration des groupes d'instances.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version inclut des correctifs de sécurité pour Hue et HBase.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige un problème lié aux métriques du FairShare planificateur lorsque Node Label est activé pour Hadoop.
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Cette version résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ Cette version améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ Cette version corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ Cette version résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6101-release.html)

## Versions des composants 6.10.1
<a name="emr-6101-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.7.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.24.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.3.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.0.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,55,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-2.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-2.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-2.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-0.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-0.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-0.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-0.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-0.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-0.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-3.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-3.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-3.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-3.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-3.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-3.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.2-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.278.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.278.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 403-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 403-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 403-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.1-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.1-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.1-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-1.1 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-1.1 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.10.1
<a name="emr-6101-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.10.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.10.1
<a name="6101-changelog"></a>


**Journal des modifications pour la version 6.10.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.10.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.10.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.10.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.10.0
<a name="emr-6100-release"></a>

## Versions d’application 6.10.0
<a name="emr-6100-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,397 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.1.0 | 2.1.0 |  -  | 
| Flink | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hadoop | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 
| Hive | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hudi | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 
| Tez | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 
| Trino (PrestoSQL) | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.10.0
<a name="emr-6100-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.10.0. Les modifications ont été apportées à la version 6.9.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6100-release.html#6100-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.10.0 prend en charge Apache Spark 3.3.1, Apache Spark RAPIDS 22.12.0, CUDA 11.8.0, Apache Hudi 0.12.2-amzn-0, Apache Iceberg 1.1.0-amzn-0, Trino 403 et PrestoDB 0.278.1.
+ Amazon EMR 6.10.0 inclut un connecteur Trino-Hudi natif qui fournit un accès en lecture aux données des tables Hudi. Vous pouvez activer le connecteur avec `trino-cli --catalog hudi` et le configurer en fonction de vos besoins avec `trino-connector-hudi`. L'intégration native avec Amazon EMR signifie que vous n'avez plus besoin d'utiliser `trino-connector-hive` pour interroger les tables Hudi. Pour obtenir la liste des configurations prises en charge avec le nouveau connecteur, consultez la page [Connecteur Hudi](https://trino.io/docs/current/connector/hudi.html) dans la documentation de Trino.
+ Les versions 6.10.0 et supérieures d'Amazon EMR prennent en charge l'intégration d'Apache Zeppelin avec Apache Flink. Pour plus d’informations, consultez [Travailler avec les jobs Flink de Zeppelin dans Amazon EMR](flink-zeppelin.md).

**Problèmes connus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Pour contourner ce problème dans Amazon EMR 6.10.0, vous pouvez définir la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` sur `false` dans `yarn-site.xml`. Dans les versions 6.11.0 et supérieures d'Amazon EMR, ainsi que 6.8.1, 6.9.1 et 6.10.1, la configuration est définie sur `false` par défaut pour résoudre ce problème.
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 

**Modifications, améliorations et problèmes résolus**
+ Amazon EMR 6.10.0 supprime la dépendance sur `minimal-json.jar` pour l'[intégration Amazon Redshift pour Apache Spark](emr-spark-redshift-launch.md) et ajoute automatiquement les fichiers JAR liés à Spark-Redshift requis au chemin de classe de l'exécuteur pour Spark : `spark-redshift.jar`, `spark-avro.jar` et `RedshiftJDBC.jar`.
+ La version 6.10.0 améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques.
+ La version 6.10.0 redémarre automatiquement le démon de gestion des journaux du cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque. 
+ Amazon EMR 6.10.0 prend en charge les points de terminaison régionaux pour le mappage des utilisateurs EMRFS.
+ La taille du volume racine par défaut est passée à 15 Go dans Amazon EMR 6.10.0 et versions ultérieures. Les versions antérieures ont une taille de volume racine par défaut de 10 Go.
+ La version 6.10.0 corrige un problème qui provoquait le blocage des tâches Spark lorsque tous les exécuteurs Spark restants se trouvaient sur un hôte en cours de mise hors service avec le gestionnaire de ressources YARN. 
+ Avec Amazon EMR 6.6.0 à 6.9.x, les requêtes INSERT avec partition dynamique et clause ORDER BY ou SORT BY auront toujours deux réducteurs. Ce problème est dû à la modification d'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), qui place l'optimisation des partitions dynamiques de tri dans le cadre d'une décision basée sur les coûts. Si votre charge de travail ne nécessite pas le tri des partitions dynamiques, nous vous recommandons de définir la propriété `hive.optimize.sort.dynamic.partition.threshold` sur `-1` pour désactiver la nouvelle fonctionnalité et obtenir le nombre de réducteurs correctement calculé. Ce problème est résolu dans OSS Hive dans le cadre de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) et dans Amazon EMR 6.10.0.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6100-release.html)

## Versions des composants 6.10.0
<a name="emr-6100-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.7.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.24.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.3.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.0.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,55,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.2-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.278.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.278.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 403-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 403-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 403-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-1 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-1 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.10.0
<a name="emr-6100-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.10.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.10.0
<a name="6100-changelog"></a>


**Journal des modifications pour la version 6.10.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/08/2023 | Mettre à jour | Ajout d'un problème connu introduit avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 03 avril | Déploiement terminé | [Amazon EMR 6.10 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 03 avril | Publication de documents | Notes de mise à jour d'Amazon EMR 6.10 publiées pour la première fois | 
| 27/02/2023 | Première version | Amazon EMR 6.10 déployé dans des régions commerciales limitées | 

# Amazon EMR version 6.9.1
<a name="emr-691-release"></a>

## Versions d’application 6.9.1
<a name="emr-691-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 | 2.1.0 |  -  |  -  | 
| Flink | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 
| HCatalog | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hadoop | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 
| Hive | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hudi | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 
| Tez | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.9.1
<a name="emr-691-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.9.1. Les modifications ont été apportées à la version 6.9.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.9.1](#691-changelog).

**Modifications, améliorations et problèmes résolus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Le collecteur de métriques n'enverra aucune métrique au plan de contrôle après le basculement du nœud primaire dans les clusters avec la configuration des groupes d'instances.
+ Cette version élimine les nouvelles tentatives en cas d'échec des requêtes HTTP vers les points de terminaison du collecteur de métriques.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version corrige un problème selon lequel de grandes quantités créées par l'utilisateur UIDs provoquaient des exceptions de dépassement.
+ Cette version corrige les problèmes de dépassement de délai avec le processus de reconfiguration d'Amazon EMR.
+ Cette version inclut des correctifs de sécurité.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Avec Amazon EMR 6.6.0 à 6.9.x, les requêtes INSERT avec partition dynamique et clause ORDER BY ou SORT BY auront toujours deux réducteurs. Ce problème est dû à la modification d'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), qui place l'optimisation des partitions dynamiques de tri dans le cadre d'une décision basée sur les coûts. Si votre charge de travail ne nécessite pas le tri des partitions dynamiques, nous vous recommandons de définir la propriété `hive.optimize.sort.dynamic.partition.threshold` sur `-1` pour désactiver la nouvelle fonctionnalité et obtenir le nombre de réducteurs correctement calculé. Ce problème est résolu dans OSS Hive dans le cadre de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) et dans Amazon EMR 6.10.0.
+ Hive peut subir des pertes de données lorsque vous utilisez HDFS comme répertoire scratch et que vous avez activé la fusion de petits fichiers, et que la table contient des chemins de partition statiques.
+ Cette version corrige un problème de performance avec Hive si la fusion des petits fichiers (désactivée par défaut) est activée à la fin de la tâche ETL.
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige la gestion des fichiers compactés/archivés avec un suivi permanent des fichiers de stockage pour. HBase
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version corrige un problème qui provoquait l'échec du fournisseur de nœuds si le service HDFS NameNode (NN) était bloqué en mode sécurisé lors du remplacement du nœud.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Cette version résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ Cette version améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ Cette version corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ Cette version résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ Cette version améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques.
+ Cette version redémarre automatiquement le démon de gestion des journaux sur le cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque. 
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-691-release.html)

## Versions des composants 6.9.1
<a name="emr-691-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.1.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.6.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.23.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.2.0 | Connecteur S3Select EMR | 
| emrfs | 2,54,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-1.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-1.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-1.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.13-amzn-0.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.13-amzn-0.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.13-amzn-0.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.13-amzn-0.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.13-amzn-0.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.13-amzn-0.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-2.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-2.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-2.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-2.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-2.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-2.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.276-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.276-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 398-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 398-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 398-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-0.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.9.1
<a name="emr-691-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.9.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.9.1
<a name="691-changelog"></a>


**Journal des modifications pour la version 6.9.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.9.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.9.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.9.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.9.0
<a name="emr-690-release"></a>

## Versions d’application 6.9.0
<a name="emr-690-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 |  -  |  -  |  -  | 
| Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 
| HCatalog | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hadoop | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 
| Hive | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 
| Spark | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 
| Tez | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 

## Notes de mise à jour 6.9.0
<a name="emr-690-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.9.0. Il s'agit des modifications apportées à la version Amazon EMR 6.8.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-690-release.html#690-changelog).

**Nouvelles fonctionnalités**
+ La version 6.9.0 d'Amazon EMR prend en charge Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 et Tez 0.10.2.
+ La version 6.9.0 d'Amazon EMR inclut une nouvelle application open source, [Delta Lake](emr-delta.md) 2.1.0.
+ L'intégration d'Amazon Redshift à Apache Spark est incluse dans les versions 6.9.0 et ultérieures d'Amazon EMR. Auparavant un outil open-source, l'intégration native est un connecteur Spark que vous pouvez utiliser pour créer des applications Apache Spark capables de lire et d'écrire des données sur Amazon Redshift et Amazon Redshift sans serveur. Pour de plus amples informations, veuillez consulter [Utilisation de l'intégration d'Amazon Redshift pour Apache Spark avec Amazon EMR](emr-spark-redshift.md).
+ La version 6.9.0 d'Amazon EMR ajoute la prise en charge de l'archivage des journaux dans Amazon S3 lors de la réduction de la taille du cluster. Auparavant, vous pouviez uniquement archiver les fichiers journaux sur Amazon S3 lors de la résiliation du cluster. Cette nouvelle fonctionnalité garantit que les fichiers journaux générés sur le cluster sont conservés sur Amazon S3 même après la résiliation du nœud. Pour plus d'informations, consultez [Configuration de la journalisation et du débogage de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Pour prendre en charge les requêtes de longue durée, Trino inclut désormais un mécanisme d'exécution tolérant aux pannes. L'exécution tolérante aux pannes atténue les échecs des requêtes en réessayant les requêtes qui ont échoué ou les tâches correspondantes.
+ Vous pouvez utiliser Apache Flink sur Amazon EMR pour le traitement `BATCH` et `STREAM` unifié des tables Apache Hive ou des métadonnées de n'importe quelle source de tables Flink telle que Iceberg, Kinesis ou Kafka. Vous pouvez spécifier le catalogue de données AWS Glue comme métastore pour Flink à l'aide de l'API AWS Management Console, AWS CLI ou Amazon EMR. Pour de plus amples informations, veuillez consulter [Configuration de Flink dans Amazon EMR](flink-configure.md).
+ Vous pouvez désormais spécifier des rôles d'exécution Gestion des identités et des accès AWS (IAM) et un contrôle d'accès AWS Lake Formation basé pour les requêtes Apache Spark, Apache Hive et Presto sur Amazon EMR sur des clusters EC2 avec Amazon AI Studio. SageMaker Pour obtenir des informations supplémentaires, consultez [Configuration des rôles d'exécution pour les étapes d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html). 

**Problèmes connus**
+ Pour Amazon EMR version 6.9.0, Trino ne fonctionne pas sur les clusters activés pour Apache Ranger. Si vous devez utiliser Trino avec Ranger, contactez [Support](https://console.aws.amazon.com/support/home#/).
+ Si vous utilisez l'intégration Amazon Redshift pour Apache Spark et que vous disposez d'une heure, d'un timestamp, d'un timestamp ou d'un timestamptz au format Parquet avec une précision de la microseconde, le connecteur arrondit les valeurs temporelles à la milliseconde la plus proche. Pour contourner le problème, utilisez le paramètre `unload_s3_format` de format de déchargement du texte.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Les connexions aux clusters Amazon EMR depuis Amazon SageMaker AI Studio peuvent échouer par intermittence avec un code de réponse **403** Forbidden. Cette erreur se produit lorsque la configuration du rôle IAM sur le cluster prend plus de 60 secondes. Pour contourner le problème, vous pouvez installer un correctif Amazon EMR pour activer les nouvelles tentatives et augmenter le délai d'expiration à un minimum de 300 secondes. Suivez les étapes ci-dessous pour appliquer l'action d'amorçage lorsque vous lancez votre cluster.

  1.  Téléchargez le script bootstrap et les fichiers RPM depuis l'Amazon S3 URIs suivant.

     ```
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
     ```

  1. Chargez les fichiers de l'étape précédente sur un compartiment Amazon S3 dont vous êtes propriétaire. Le compartiment doit se trouver à l' Région AWS endroit où vous prévoyez de lancer le cluster.

  1. Incluez l'action d'amorçage suivante lorsque vous lancez votre cluster EMR. Remplacez *bootstrap\$1URI* et *RPM\$1URI* par le correspondant URIs provenant d'Amazon S3. 

     ```
     --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
     ```
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Apache Flink fournit des FileSystem connecteurs natifs S3 FileSystem et Hadoop, qui permettent aux applications de créer FileSink et d'écrire les données dans Amazon S3. Cela FileSink échoue avec l'une des deux exceptions suivantes.

  ```
  java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
  ```

  ```
  Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy;
                                          at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
  ```

  Pour contourner le problème, vous pouvez installer un correctif Amazon EMR, qui corrige le problème ci-dessus dans Flink. Suivez les étapes suivantes pour appliquer l'action d'amorçage lors du lancement de votre cluster.

  1. Téléchargez le fichier flink-rpm dans votre compartiment Amazon S3. Votre chemin RPM est `s3://DOC-EXAMPLE-BUCKET/rpms/flink/`.

  1. Téléchargez le script d'amorçage et les fichiers RPM depuis Amazon S3 en utilisant l'URI suivant. Remplacez `regionName` par l' Région AWS endroit où vous prévoyez de lancer le cluster.

     ```
     s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
     ```

  1. Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Dans Amazon EMR 6.8.0 et 6.9.0, cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

     Avec [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), il existe une solution à ce problème qui consiste à définir la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` sur `false` dans `yarn-site.xml`. Dans les versions 6.11.0 et supérieures d'Amazon EMR, ainsi que 6.8.1, 6.9.1 et 6.10.1, la configuration est définie sur `false` par défaut pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+ Pour Amazon EMR version 6.9.0 et versions ultérieures, tous les composants installés par Amazon EMR qui utilisent les bibliothèques Log4j utilisent Log4j version 2.17.1 ou ultérieure.
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Amazon EMR 6.9.0 ajoute une prise en charge limitée du contrôle d'accès basé sur Lake Formation avec Apache Hudi lors de la lecture de données à l'aide de Spark SQL. La prise en charge concerne les requêtes SELECT utilisant Spark SQL et se limite au contrôle d'accès au niveau des colonnes. Pour plus d'informations, consultez [Hudi et Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/hudi-with-lake-formation.html).
+ Lorsque vous utilisez Amazon EMR 6.9.0 pour créer un cluster Hadoop avec les [étiquettes de nœuds](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/NodeLabel.html) activées, l'[API de métriques YARN](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Metrics_API) renvoie des informations agrégées sur toutes les partitions, au lieu de la partition par défaut. Pour plus d'informations, consultez [YARN-11414](https://issues.apache.org/jira/browse/YARN-11414).
+ Avec la version 6.9.0 d'Amazon EMR, nous avons mis à jour Trino vers la version 398, qui utilise Java 17. La version précédemment prise en charge de Trino pour Amazon EMR 6.8.0 était Trino 388 fonctionnant sous Java 11. Pour plus d'informations sur cette modification, consultez [Mises à jour de Trino vers Java 17](https://trino.io/blog/2022/07/14/trino-updates-to-java-17.html) sur le blog de Trino.
+ Cette version corrige un problème d'inadéquation des séquences temporelles entre Apache BigTop et Amazon EMR sur la séquence de démarrage du cluster EC2. Ce décalage se produit lorsqu'un système tente d'effectuer deux ou plusieurs opérations en même temps au lieu de les effectuer dans le bon ordre. Par conséquent, certaines configurations de cluster ont connu des délais de démarrage des instances et des temps de démarrage des clusters plus lents.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-690-release.html)

## Versions des composants 6.9.0
<a name="emr-690-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.1.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.6.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.23.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.2.0 | Connecteur S3Select EMR | 
| emrfs | 2,54,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.13-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.13-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.13-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.13-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.13-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.13-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.276-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.276-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 398-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 398-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 398-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-0 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.9.0
<a name="emr-690-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.9.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.9.0
<a name="690-changelog"></a>


**Journal des modifications pour la version 6.9.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout d'un correctif pour un problème de non-concordance des séquences de synchronisation | 
| 21/08/2023 | Mise à jour des notes de mise à jour | Ajout d'un problème connu avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 13/12 | Mise à jour des notes de mise à jour | Fonctionnalité ajoutée et problème connu d'exécution avec l' SageMaker IA | 
| 29/11 | Mise à jour des notes de mise à jour et de la documentation | Ajout d'une fonctionnalité pour l'intégration d'Amazon Redshift pour Apache Spark | 
| 23/11 | Mise à jour des notes de mise à jour | Suppression de l'entrée Log4j | 
| 11/18 | Déploiement terminé | [Amazon EMR 6.9 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 11/18 | Publication de documents | Première publication des notes de mise à jour d'Amazon EMR 6.9 | 
| 14/11 | Première version | Amazon EMR 6.9 déployé dans des régions commerciales limitées | 

# Amazon EMR version 6.8.1
<a name="emr-681-release"></a>

## Versions d’application 6.8.1
<a name="emr-681-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 
| HCatalog | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hadoop | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 
| Hive | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hudi | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 
| Spark | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 

## Notes de mise à jour 6.8.1
<a name="emr-681-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.8.1. Les modifications ont été apportées à la version 6.8.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.8.1](#681-changelog).

**Modifications, améliorations et problèmes résolus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Le collecteur de métriques n'enverra aucune métrique au plan de contrôle après le basculement du nœud primaire dans les clusters avec la configuration des groupes d'instances.
+ Cette version élimine les nouvelles tentatives en cas d'échec des requêtes HTTP vers les points de terminaison du collecteur de métriques.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version corrige un problème selon lequel de grandes quantités créées par l'utilisateur UIDs provoquaient des exceptions de dépassement.
+ Cette version corrige les problèmes de dépassement de délai avec le processus de reconfiguration d'Amazon EMR.
+ Cette version permet d'éviter un problème selon lequel l'échec de la reconfiguration pourrait interrompre d'autres processus indépendants.
+ Cette version inclut des correctifs de sécurité.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Avec Amazon EMR 6.6.0 à 6.9.x, les requêtes INSERT avec partition dynamique et clause ORDER BY ou SORT BY auront toujours deux réducteurs. Ce problème est dû à la modification d'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), qui place l'optimisation des partitions dynamiques de tri dans le cadre d'une décision basée sur les coûts. Si votre charge de travail ne nécessite pas le tri des partitions dynamiques, nous vous recommandons de définir la propriété `hive.optimize.sort.dynamic.partition.threshold` sur `-1` pour désactiver la nouvelle fonctionnalité et obtenir le nombre de réducteurs correctement calculé. Ce problème est résolu dans OSS Hive dans le cadre de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) et dans Amazon EMR 6.10.0.
+ Hive peut subir des pertes de données lorsque vous utilisez HDFS comme répertoire scratch et que vous avez activé la fusion de petits fichiers, et que la table contient des chemins de partition statiques.
+ Cette version corrige un problème de performance avec Hive si la fusion des petits fichiers (désactivée par défaut) est activée à la fin de la tâche ETL.
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige la gestion des fichiers compactés/archivés avec un suivi permanent des fichiers de stockage pour. HBase
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version corrige un problème qui provoquait l'échec du fournisseur de nœuds si le service HDFS NameNode (NN) était bloqué en mode sécurisé lors du remplacement du nœud.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Cette version résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ Cette version améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ Cette version corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ Cette version résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ Cette version améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques.
+ Cette version redémarre automatiquement le démon de gestion des journaux sur le cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque. 
+ Cette version ajoute la prise en charge de l'archivage des journaux sur Amazon S3 lors de la réduction de la capacité du cluster. Auparavant, vous pouviez uniquement archiver les fichiers journaux sur Amazon S3 lors de la résiliation du cluster. Cette nouvelle fonctionnalité garantit que les fichiers journaux générés sur le cluster sont conservés sur Amazon S3 même après la résiliation du nœud. Pour plus d'informations, consultez [Configuration de la journalisation et du débogage de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Cette version corrige un problème qui s'est produit lorsque l'URI Amazon S3 pour une action d'amorçage se terminait par un numéro de port, par exemple : `a.b.c.d:4345`. Amazon EMR les analysait incorrectement URIs, de sorte que toutes les actions d'amorçage associées échoueraient.
+ Cette version corrige un problème d'inadéquation des séquences temporelles entre Apache BigTop et Amazon EMR sur la séquence de démarrage du cluster EC2. Ce décalage se produit lorsqu'un système tente d'effectuer deux ou plusieurs opérations en même temps au lieu de les effectuer dans le bon ordre. Par conséquent, certaines configurations de cluster ont connu des délais de démarrage des instances et des temps de démarrage des clusters plus lents.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-681-release.html)

## Versions des composants 6.8.1
<a name="emr-681-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.22.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,53,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-8.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-8.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-8.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.12-amzn-0.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.12-amzn-0.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.12-amzn-0.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.12-amzn-0.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.12-amzn-0.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.12-amzn-0.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-1.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-1.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-1.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-1.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-1.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-1.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.11.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.273.3-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.273.3-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 388-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 388-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 388-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.8.1
<a name="emr-681-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.8.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.8.1
<a name="681-changelog"></a>


**Journal des modifications pour la version 6.8.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.8.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.8.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.8.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.8.0
<a name="emr-680-release"></a>

## Versions d’application 6.8.0
<a name="emr-680-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,31 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 
| HCatalog | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hadoop | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 
| Hive | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 
| Spark | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 
| Zeppelin | 0,1,1 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 

## Notes de mise à jour 6.8.0
<a name="emr-680-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.8.0. Les modifications ont été apportées à la version 6.7.0.

**Nouvelles fonctionnalités**
+ La fonctionnalité Amazon EMR Steps prend désormais en charge le point de terminaison et les clients Apache Livy. JDBC/ODBC Pour obtenir des informations supplémentaires, consultez [Configuration des rôles d'exécution pour les étapes d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html).
+ La version 6.8.0 d'Amazon EMR est fournie avec la version 2.4.12 d'Apache HBase . Avec cette HBase version, vous pouvez à la fois archiver et supprimer vos HBase tables. Le processus d'archivage Amazon S3 renomme tous les fichiers de table dans le répertoire d'archive. Ce processus peut être long et coûteux. Vous pouvez désormais ignorer le processus d'archivage et supprimer rapidement des tables volumineuses. Pour de plus amples informations, veuillez consulter [Utilisation de la HBase coque](emr-hbase-connect.md).

**Problèmes connus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Dans Amazon EMR 6.8.0 et 6.9.0, cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Avec [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), il existe une solution à ce problème qui consiste à définir la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` sur `false` dans `yarn-site.xml`. Dans les versions 6.11.0 et supérieures d'Amazon EMR, ainsi que 6.8.1, 6.9.1 et 6.10.1, la configuration est définie sur `false` par défaut pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+ Lorsqu'Amazon EMR version 6.5.0, 6.6.0 ou 6.7.0 lisait les tables Apache Phoenix via le shell Apache Spark, Amazon EMR a produit une erreur `NoSuchMethodError`. La version 6.8.0 d'Amazon EMR résout ce problème.
+ La version 6.8.0 d'Amazon EMR est fournie avec [Apache Hudi](https://hudi.apache.org/) 0.11.1 ; toutefois, les clusters Amazon EMR 6.8.0 sont également compatibles avec le `hudi-spark3.3-bundle_2.12` open source de Hudi 0.12.0.
+ La version 6.8.0 d'Amazon EMR est fournie avec la version 3.3.0 d'Apache Spark. Cette version de Spark utilise Apache Log4j 2 et le fichier `log4j2.properties` pour configurer Log4j dans les processus Spark. Si vous utilisez Spark dans le cluster ou si vous créez des clusters EMR avec des paramètres de configuration personnalisés, et que vous voulez passer à la version 6.8.0 d'Amazon EMR, vous devez migrer vers la nouvelle classification de configuration `spark-log4j2` et le nouveau format de clé pour Apache Log4j 2. Pour de plus amples informations, veuillez consulter [Migration d'Apache Log4j 1.x vers Log4j 2.x](emr-spark-configure.md#spark-migrate-logj42).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-680-release.html)

**Problèmes connus**
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. Cela est dû au fait que Spark 3.2.0 définit `spark.hadoopRDD.ignoreEmptySplits` sur `true` par défaut. Pour contourner le problème, définissez explicitement `spark.hadoopRDD.ignoreEmptySplits` sur `false`. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-680-release.html#680-changelog).

## Versions des composants 6.8.0
<a name="emr-680-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.22.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,53,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-8 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-8 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-8 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.12-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.12-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.12-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.12-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.12-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.12-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.11.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.273.3-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.273.3-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 388-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 388-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 388-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.8.0
<a name="emr-680-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.8.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.8.0
<a name="680-changelog"></a>


**Journal des modifications pour la version 6.8.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/08/2023 | Mettre à jour | Ajout d'un problème connu avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 05.09-06 | Déploiement terminé | [Amazon EMR 6.8 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 05.09-06 | Publication initiale | Première publication des notes de mise à jour d'Amazon EMR 6.8 | 
| 08-31 | Première version | Amazon EMR 6.8 déployé dans des régions commerciales limitées | 

# Amazon EMR version 6.7.0
<a name="emr-670-release"></a>

## Versions d’application 6.7.0
<a name="emr-670-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,31 | 1,12,31 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 
| HCatalog | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hadoop | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 
| Hive | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hudi | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 
| Spark | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 

## Notes de mise à jour 6.7.0
<a name="emr-670-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.7.0. Les modifications ont été apportées à la version 6.6.0.

Date de parution initiale : 15 juillet 2022

**Nouvelles fonctionnalités**
+ Amazon EMR prend désormais en charge Apache Spark 3.2.1, Apache Hive 3.1.3, HUDI 0.11, PrestoDB 0.272 et Trino 0.378.
+ Prend en charge les contrôles d'accès basés sur les rôles IAM et Lake Formation avec des étapes EMR (Spark, Hive) pour Amazon EMR sur des clusters EC2.
+ Prend en charge les instructions de définition de données Apache Spark sur les clusters compatibles avec Apache Ranger. Cela inclut désormais la prise en charge des applications Trino lisant et écrivant des métadonnées Apache Hive sur des clusters compatibles avec Apache Ranger. Pour plus d'informations, consultez [Mise en place d'une gouvernance fédérée à l'aide de Trino et d'Apache Ranger sur Amazon EMR](https://aws.amazon.com/blogs/big-data/enable-federated-governance-using-trino-and-apache-ranger-on-amazon-emr/).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-670-release.html)

**Problèmes connus**
+ Lorsque les versions 6.5.0, 6.6.0 ou 6.7.0 d'Amazon EMR lisent les tables Apache Phoenix via le shell Apache Spark, une erreur `NoSuchMethodError` se produit car Amazon EMR utilise une `Hbase.compat.version` incorrecte. La version 6.8.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. Cela est dû au fait que Spark 3.2.0 définit `spark.hadoopRDD.ignoreEmptySplits` sur `true` par défaut. Pour contourner le problème, définissez explicitement `spark.hadoopRDD.ignoreEmptySplits` sur `false`. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ L’API `GetClusterSessionCredentials` n’est pas prise en charge avec les clusters qui s’exécutent sur Amazon EMR 6.7 ou version antérieure.
+ Les commits Hadoop suivants ont été rétroportés.

  - [[HADOOP-16080]](https://issues.apache.org/jira/browse/HADOOP-16080) Corrigez un problème qui ne fonctionnait pas avec. `hadoop-aws` `hadoop-client-api`

  - [[HADOOP-18237]](https://issues.apache.org/jira/browse/HADOOP-18237) Mettez à jour Apache Xerces Java vers la version 2.12.2.

  - [[YARN-11092]](https://issues.apache.org/jira/browse/YARN-11092) Mettez à jour jquery vers ui vers la version 1.13.1.

  - [[YARN-10720]](https://issues.apache.org/jira/browse/YARN-10720) YARN WebAppProxyServlet devrait prendre en charge le délai d'expiration de la connexion pour empêcher le serveur proxy de se bloquer.

## Versions des composants 6.7.0
<a name="emr-670-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.6.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.22.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,52,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-7 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-7 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-7 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-7 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-7 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-7 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-7 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-7 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-7 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-7 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-7 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.4-amzn-3 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.11.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.11.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.11.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.11.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.13.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.272-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.272-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.272-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 378-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 378-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 378-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.2.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.2.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.2.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.2.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.02.0-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.7.0
<a name="emr-670-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.7.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.6.0
<a name="emr-660-release"></a>

## Versions d’application 6.6.0
<a name="emr-660-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,31 | 1,12,31 | 1,1,977 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 
| Hive | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hudi | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1 | 0.12.0 |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 367-amzn-0 | 360 | 359 | 350 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 

## Notes de mise à jour 6.6.0
<a name="emr-660-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.6.0. Les modifications ont été apportées à la version 6.5.0.

Date de parution initiale : 9 mai 2022

Date de mise à jour de la documentation : 15 juin 2022

**Nouvelles fonctionnalités**
+ Amazon EMR 6.6 prend désormais en charge Apache Spark 3.2, Apache Spark RAPIDS 22.02, CUDA 11, Apache Hudi 0.10.1, Apache Iceberg 0.13, Trino 0.367 et PrestoDB 0.267.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-660-release.html)
+ Avec Amazon EMR 6.6 et les versions ultérieures, les applications qui utilisent Log4j 1.x et Log4j 2.x sont mises à niveau pour utiliser respectivement Log4j 1.2.17 (ou supérieur) et Log4j 2.17.1 (ou supérieur), et n'ont pas besoin d'utiliser les [actions d'amorçage](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-log4j-vulnerability.html) fournies pour atténuer les problèmes liés aux CVE.
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ À partir d'Amazon EMR 5.32.0 et 6.5.0, le dimensionnement dynamique de l'exécuteur pour Apache Spark est activé par défaut. Pour activer ou désactiver cette fonctionnalité, vous pouvez utiliser le paramètre de configuration `spark.yarn.heterogeneousExecutors.enabled`.

**Modifications, améliorations et problèmes résolus**
+ Amazon EMR réduit le temps de démarrage des clusters de 80 secondes en moyenne pour les clusters qui utilisent l'option AMI par défaut d'EMR et n'installent que des applications courantes, telles qu'Apache Hadoop, Apache Spark et Apache Hive.

**Problèmes connus**
+ Lorsque les versions 6.5.0, 6.6.0 ou 6.7.0 d'Amazon EMR lisent les tables Apache Phoenix via le shell Apache Spark, une erreur `NoSuchMethodError` se produit car Amazon EMR utilise une `Hbase.compat.version` incorrecte. La version 6.8.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. Cela est dû au fait que Spark 3.2.0 définit `spark.hadoopRDD.ignoreEmptySplits` sur `true` par défaut. Pour contourner le problème, définissez explicitement `spark.hadoopRDD.ignoreEmptySplits` sur `false`. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Sur les clusters de longue durée de Trino, Amazon EMR 6.6.0 active les paramètres de journalisation du récupérateur de mémoire dans le fichier jvm.config de Trino afin d'obtenir de meilleures informations à partir des journaux du récupérateur de mémoire. Cette modification ajoute de nombreux journaux de collecte des déchets au fichier launcher.log (/var/log/trino/launcher.log). Si vous utilisez des clusters Trino dans Amazon EMR 6.6.0, vous pouvez rencontrer des nœuds à court d'espace disque après quelques jours d'exécution du cluster en raison des journaux ajoutés.

  La solution à ce problème consiste à exécuter le script ci-dessous en tant qu'action d'amorçage afin de désactiver les paramètres de journalisation du récupérateur de mémoire dans jvm.config lors de la création ou du clonage du cluster pour Amazon EMR 6.6.0.

  ```
  #!/bin/bash
    set -ex
    PRESTO_PUPPET_DIR='/var/aws/emr/bigtop-deploy/puppet/modules/trino'
    sudo bash -c "sed -i '/-Xlog/d' ${PRESTO_PUPPET_DIR}/templates/jvm.config"
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## Versions des composants 6.6.0
<a name="emr-660-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.5.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.20.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,50,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-6 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-2 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.4-amzn-2 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.2-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-7 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-7 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.10.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.10.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.10.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.10.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.13.1 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.267-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.267-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.267-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 367-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 367-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 367-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.2.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.2.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.2.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.2.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.6.0
<a name="emr-660-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.6.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.5.0
<a name="emr-650-release"></a>

## Versions d’application 6.5.0
<a name="emr-650-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,31 | 1,12,31 | 1,1,977 | 1,1,977 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 
| Hive | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.12.0 |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 360 | 359 | 350 | 350 | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.5.0
<a name="emr-650-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.5.0. Les modifications ont été apportées à la version 6.4.0.

Date de parution initiale : 20 janvier 2022

Date de mise à niveau : 21 mars 2022

**Nouvelles fonctionnalités**
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ À partir d'Amazon EMR 5.32.0 et 6.5.0, le dimensionnement dynamique de l'exécuteur pour Apache Spark est activé par défaut. Pour activer ou désactiver cette fonctionnalité, vous pouvez utiliser le paramètre de configuration `spark.yarn.heterogeneousExecutors.enabled`.
+ Prise en charge du format de table ouvert Apache Iceberg pour les jeux de données analytiques volumineux.
+ Support pour ranger-trino-plugin 2.0.1-amzn-1
+ Prise en charge de toree 0.5.0

**Modifications, améliorations et problèmes résolus**
+ La version 6.5 d'Amazon EMR prend désormais en charge Apache Iceberg 0.12.0 et apporte des améliorations d'exécution avec l'environnement d'exécution Amazon EMR pour Apache Spark, l'environnement d'exécution Amazon EMR pour Presto et l'environnement d'exécution Amazon EMR pour Apache Hive.
+ [Apache Iceberg](https://iceberg.apache.org/) est un format de table ouvert pour les grands jeux de données dans Amazon S3. Il fournit des performances de requête rapides sur de grandes tables, des validations atomiques, des écritures simultanées et une évolution de table compatible avec SQL. Avec EMR 6.5, vous pouvez utiliser Apache Spark 3.1.2 avec le format de table Iceberg.
+ Apache Hudi 0.9 ajoute la prise en charge de DDL et DML de Spark SQL. Cela vous permet de créer et de modifier des tables Hudi en utilisant uniquement des instructions SQL. Apache Hudi 0.9 inclut également des améliorations des performances côté requête et côté écriture.
+ L'environnement d'exécution Amazon EMR pour Apache Hive améliore les performances d'Apache Hive sur Amazon S3 en supprimant les opérations de changement de nom pendant les opérations intermédiaires et en améliorant les performances des commandes de vérification du métastore (MSCK) utilisées pour la réparation des tables.

**Problèmes connus**
+ Lorsque les versions 6.5.0, 6.6.0 ou 6.7.0 d'Amazon EMR lisent les tables Apache Phoenix via le shell Apache Spark, une erreur `NoSuchMethodError` se produit car Amazon EMR utilise une `Hbase.compat.version` incorrecte. La version 6.8.0 d'Amazon EMR résout ce problème.
+ Les clusters de la solution groupée Hbase en haute disponibilité (HA) ne parviennent pas à se provisionner avec la taille de volume et le type d'instance par défaut. La solution à ce problème consiste à augmenter la taille du volume racine.
+ Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie `workflow.xml`. Sinon, plusieurs bibliothèques critiques telles que Hadoop et EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.5.0
<a name="emr-650-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.4.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.19.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,48,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-6 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-6 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.9.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.9.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.9.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.9.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.12.0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.261-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.261-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.261-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 360 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 360 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 360 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.2-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.2-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.2-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.2-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.5.0
<a name="emr-650-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.5.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.4.0
<a name="emr-640-release"></a>

## Versions d’application 6.4.0
<a name="emr-640-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,31 | 1,1,977 | 1,1,977 | 1,1880 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 
| Hive | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 5.1.2 | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 
| Spark | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 359 | 350 | 350 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 
| ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.4.0
<a name="emr-640-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.4.0. Les modifications ont été apportées à la version 6.3.0.

Date de parution initiale : 20 septembre 2021

Date de mise à niveau : 21 mars 2022

**Applications prises en charge**
+ AWS SDK pour Java version 1.12.31
+ CloudWatch Version 2.2.0 de l'évier
+ Connecteur DynamoDB version 4.16.0
+ EMRFS version 2.47.0
+ Amazon EMR Goodies version 3.2.0
+ Amazon EMR Kinesis Connector version 3.5.0
+ Amazon EMR Record Server version 2.1.0
+ Amazon EMR Scripts version 2.5.0
+ Flink version 1.13.1
+ Ganglia version 3.7.2
+ AWS Client Glue Hive Metastore version 3.3.0
+ Hadoop version 3.2.1-amzn-4
+ HBase version 2.4.4-amzn-0
+ HBase-operator-tools 1.1.0
+ HCatalog version 3.1.2-amzn-5
+ Hive version 3.1.2-amzn-5
+ Hudi version 0.8.0-amzn-0
+ Hue version 4.9.0
+ Java JDK version Corretto-8.302.08.1 (build 1.8.0\$1302-b08)
+ JupyterHub version 1.4.1
+ Livy version 0.7.1-incubating
+ MXNet version 1.8.0
+ Oozie version 5.2.1
+ Phoenix version 5.1.2
+ Pig version 0.17.0
+ Presto version 0.254.1-amzn-0
+ Trino version 359
+ Apache Ranger KMS (chiffrement transparent à plusieurs maîtres) version 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.2.0
+ SageMaker Version 1.4.1 du SDK Spark
+ Scala version 2.12.10 (machine virtuelle du serveur OpenJDK 64 bits, Java 1.8.0\$1282)
+ Spark version 3.1.2-amzn-0
+ spark-rapids 0.4.1
+ Sqoop version 1.4.7
+ TensorFlow version 2.4.1
+ tez version 0.9.2
+ Zeppelin version 0.9.0
+ Zookeeper version 3.5.7
+ Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

**Nouvelles fonctionnalités**
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Sur les clusters Amazon EMR compatibles avec Apache Ranger, vous pouvez utiliser Apache Spark SQL pour insérer des données dans les tables de métastore Apache Hive ou les mettre à jour à l'aide de `INSERT INTO`, `INSERT OVERWRITE` et `ALTER TABLE`. Lorsque vous utilisez ALTER TABLE avec Spark SQL, l'emplacement d'une partition doit être le répertoire enfant d'un emplacement de table. Amazon EMR ne prend actuellement pas en charge l'insertion de données dans une partition où l'emplacement de la partition est différent de celui de la table.
+ PrestoSQL a été [renommé Trino.](https://trino.io/blog/2020/12/27/announcing-trino.html) 
+ Hive : l'exécution de requêtes SELECT simples avec la clause LIMIT est accélérée en arrêtant l'exécution de la requête dès que le nombre d'enregistrements mentionné dans la clause LIMIT est récupéré. Les requêtes SELECT simples sont des requêtes qui ne contiennent pas de clause GROUP BY/ORDER BY ou des requêtes qui n'ont pas d'étape de réduction. Par exemple, `SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>`. 

**Contrôles de simultanéité Hudi**
+ Hudi prend désormais en charge le contrôle de simultanéité optimiste (OCC), qui peut être exploité avec des opérations d'écriture telles que UPSERT et INSERT pour permettre les modifications de plusieurs enregistreurs sur la même table Hudi. Il s'agit d'un OCC au niveau du fichier, de sorte que deux validations (ou enregistreurs) peuvent écrire dans la même table, si leurs modifications n'entrent pas en conflit. Pour plus d'informations, consultez le [contrôle de simultanéité de Hudi](https://hudi.apache.org/docs/concurrency_control/). 
+ Zookeeper est installé sur les clusters Amazon EMR, qui peut être utilisé comme fournisseur de verrous pour OCC. Pour faciliter l'utilisation de cette fonctionnalité, les propriétés préconfigurées des clusters Amazon EMR sont les suivantes :

  ```
  hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider
  hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL>
  hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port>
  hoodie.write.lock.zookeeper.base_path=/hudi
  ```

  Pour activer l'OCC, vous devez configurer les propriétés suivantes soit avec leurs options de tâche Hudi, soit au niveau du cluster à l'aide de l'API de configuration Amazon EMR :

  ```
  hoodie.write.concurrency.mode=optimistic_concurrency_control
  hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write)
  hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
  ```

**Hudi Monitoring : CloudWatch intégration d'Amazon pour générer des rapports sur Hudi Metrics**
+ Amazon EMR prend en charge la publication de Hudi Metrics sur Amazon. CloudWatch Elle est activée en définissant les configurations requises suivantes :

  ```
  hoodie.metrics.on=true
  hoodie.metrics.reporter.type=CLOUDWATCH
  ```
+ Les configurations Hudi facultatives que vous pouvez modifier sont les suivantes :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-640-release.html)

**Prise en charge et amélioration des configurations Hudi d'Amazon EMR**
+ Les clients peuvent désormais tirer parti de l'API de configuration EMR et de la fonctionnalité de reconfiguration pour configurer les configurations Hudi au niveau du cluster. Un nouveau support de configuration basé sur des fichiers a été introduit via/etc/hudi/conf/hudi-defaults.conf, à l'instar d'autres applications telles que Spark, Hive, etc. EMR configure quelques paramètres par défaut pour améliorer l'expérience utilisateur :

  — `hoodie.datasource.hive_sync.jdbcurl ` est configuré selon l'URL du serveur Hive du cluster et n'a plus besoin d'être spécifié. Cela est particulièrement utile lorsque vous exécutez une tâche en mode cluster Spark, où vous deviez auparavant spécifier l'adresse IP principale Amazon EMR. 

  — HBase des configurations spécifiques, utiles pour utiliser l' HBase index avec Hudi.

  — Configuration spécifique au fournisseur de verrous Zookeeper, comme indiqué dans la section Contrôle de simultanéité, qui facilite l'utilisation du contrôle de simultanéité optimiste (OCC).
+ Des modifications supplémentaires ont été introduites pour réduire le nombre de configurations à transmettre et pour en déduire automatiquement dans la mesure du possible :

  — Le mot clé `partitionBy ` peut être utilisé pour spécifier la colonne de partition. 

  — Lorsque vous activez Hive Sync, il n'est plus obligatoire de spécifier `HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY`. Ces valeurs peuvent être déduites du nom de la table Hudi et du champ de partition. 

  — `KEYGENERATOR_CLASS_OPT_KEY` n'est pas obligatoire et peut être déduite de cas plus simples de `SimpleKeyGenerator` et`ComplexKeyGenerator`. 

**Mises en garde de Hudi**
+ Hudi ne prend pas en charge l'exécution vectorisée dans les tables Hive for Merge on Read (MoR) et Bootstrap. Par exemple, `count(*)` échoue avec la table en temps réel de Hudi lorsque `hive.vectorized.execution.enabled` est défini sur true. Comme solution de contournement, vous pouvez désactiver la lecture vectorisée en définissant `hive.vectorized.execution.enabled` sur `false`. 
+ La prise en charge des enregistreurs multiples n'est pas compatible avec la fonction d'amorçage de Hudi.
+ Flink Streamer et Flink SQL sont des fonctionnalités expérimentales dans cette version. Ces fonctionnalités ne sont pas recommandées pour les déploiements de production.

**Modifications, améliorations et problèmes résolus**

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Auparavant, le redémarrage manuel du gestionnaire de ressources sur un cluster multimaître provoquait le rechargement par les démons Amazon EMR on-cluster, comme Zookeeper, de tous les nœuds précédemment mis hors service ou perdus dans le fichier znode de Zookeeper. Cela a entraîné le dépassement des limites par défaut dans certaines situations. Amazon EMR supprime désormais les enregistrements de nœuds mis hors service ou perdus datant de plus d'une heure du fichier Zookeeper et les limites internes ont été augmentées.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ **Configuration d'un cluster pour résoudre les problèmes de performances d'Apache YARN Timeline Server versions 1 et 1.5**

  Les versions 1 et 1.5 d'Apache YARN Timeline Server peuvent entraîner des problèmes de performances avec de grands clusters EMR très actifs, en particulier avec `yarn.resourcemanager.system-metrics-publisher.enabled=true`, le paramètre par défaut d'Amazon EMR. YARN Timeline Server v2 open source résout le problème de performance lié à la capacité de mise à l'échelle de YARN Timeline Server.

  Les autres solutions à ce problème incluent :
  + Configuration de yarn.resourcemanager. system-metrics-publisher.enabled=false dans le fichier yarn-site.xml.
  + Activation du correctif pour ce problème lors de la création d'un cluster, comme décrit ci-dessous.

  Les versions Amazon EMR suivantes contiennent un correctif pour ce problème de performance de YARN Timeline Server.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  Pour activer le correctif sur l'une des versions Amazon EMR spécifiées ci-dessus, définissez ces propriétés sur `true` dans un fichier JSON de configuration transmis à l'aide du [paramètre de commande `aws emr create-cluster`](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html) : `--configurations file://./configurations.json`. Vous pouvez également activer le correctif à l'aide de l'[interface utilisateur de la console de reconfiguration](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Exemple du contenu du fichier configurations.json :

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ WebHDFS et le serveur HttpFS sont désactivés par défaut. Vous pouvez réactiver WebHDFS en utilisant la configuration Hadoop, `dfs.webhdfs.enabled`. Le serveur HttpFS peut être démarré en utilisant `sudo systemctl start hadoop-httpfs`.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 
+ Hive : les performances des requêtes d'écriture sont améliorées en permettant l'utilisation d'un répertoire temporaire sur HDFS pour la dernière tâche. Les données temporaires pour la tâche finale sont écrites sur HDFS au lieu d'Amazon S3 et les performances sont améliorées car les données sont déplacées de HDFS vers l'emplacement de la table finale (Amazon S3) au lieu d'être déplacées entre les appareils Amazon S3.
+ Hive : amélioration du temps de compilation des requêtes jusqu'à 2,5 fois avec l'élimination des partitions du métastore Glue.
+ Par défaut, lorsque les éléments intégrés UDFs sont transmis par Hive au serveur Hive Metastore, seul un sous-ensemble de ces éléments intégrés UDFs est transmis au Glue Metastore, car Glue ne prend en charge que des opérateurs d'expression limités. Si vous définissez `hive.glue.partition.pruning.client=true`, tout l'élimination des partitions se fait du côté client. Si vous définissez `hive.glue.partition.pruning.server=true`, tout l'élimination des partitions se fait du côté serveur. 

**Problèmes connus**
+ Les requêtes Hue ne fonctionnent pas dans Amazon EMR 6.4.0 car le serveur Apache Hadoop HTTPFS est désactivé par défaut. Pour utiliser Hue sur Amazon EMR 6.4.0, démarrez manuellement le serveur HttpFS sur le nœud primaire d'Amazon EMR à l'aide de `sudo systemctl start hadoop-httpfs`, ou [utilisez une étape d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).
+ La fonctionnalité Blocs-notes Amazon EMR utilisée avec l'emprunt d'identité de l'utilisateur Livy ne fonctionne pas car HttpFS est désactivé par défaut. Dans ce cas, le bloc-notes EMR ne peut pas se connecter au cluster dont l'emprunt d'identité Livy est activé. La solution consiste à démarrer le serveur HttpFS avant de connecter le bloc-notes EMR au cluster à l'aide de `sudo systemctl start hadoop-httpfs`.
+ Dans la version 6.4.0 d'Amazon EMR, Phoenix ne prend pas en charge le composant des connecteurs Phoenix.
+ Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie `workflow.xml`. Sinon, plusieurs bibliothèques critiques telles que Hadoop et EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.4.0
<a name="emr-640-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.3.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,47,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.13.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.13.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-5 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-5 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-5 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-5 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-5 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-5 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-5 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.8.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.8.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.8.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.8.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.254.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.254.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.254.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 359 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 359 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 359 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.2-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.2-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.2-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.2-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.4.0
<a name="emr-640-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.4.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.3.1
<a name="emr-631-release"></a>

## Versions d’application 6.3.1
<a name="emr-631-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,977 | 1,1,977 | 1,1880 | 1,1880 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hudi | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 
| Spark | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 350 | 343 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.3.1
<a name="emr-631-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.3.1
<a name="emr-631-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-3.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-3.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-3.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.7.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 350 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 350 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 350 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.1-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.1-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.1-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.3.1
<a name="emr-631-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.3.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.3.0
<a name="emr-630-release"></a>

## Versions d’application 6.3.0
<a name="emr-630-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,977 | 1,1880 | 1,1880 | 1,1,828 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 
| Spark | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 343 | 343 | 338 | 
| Zeppelin | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.3.0
<a name="emr-630-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.3.0. Les modifications ont été apportées à la version 6.2.0.

Date de parution initiale : 12 mai 2021

Dernière mise à jour : 9 août 2021

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.977
+ CloudWatch Version 2.1.0 de l'évier
+ Connecteur DynamoDB version 4.16.0
+ EMRFS version 2.46.0
+ Amazon EMR Goodies version 3.2.0
+ Amazon EMR Kinesis Connector version 3.5.0
+ Amazon EMR Record Server version 2.0.0
+ Amazon EMR Scripts version 2.5.0
+ Flink version 1.12.1
+ Ganglia version 3.7.2
+ AWS Client Glue Hive Metastore version 3.2.0
+ Hadoop version 3.2.1-amzn-3
+ HBase version 2.2.6-amzn-1
+ HBase-operator-tools 1.0.0
+ HCatalog version 3.1.2-amzn-0
+ Hive version 3.1.2-amzn-4
+ Hudi version 0.7.0-amzn-0
+ Hue version 4.9.0
+ Java JDK version Corretto-8.282.08.1 (build 1.8.0\$1282-b08)
+ JupyterHub version 1.2.0
+ Livy version 0.7.0-incubating
+ MXNet version 1.7.0
+ Oozie version 5.2.1
+ Phoenix version 5.0.0
+ Pig version 0.17.0
+ Presto version 0.245.1-amzn-0
+ PrestoSQL version 350
+ Apache Ranger KMS (chiffrement transparent à plusieurs maîtres) version 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.1.0
+ SageMaker Version 1.4.1 du SDK Spark
+ Scala version 2.12.10 (machine virtuelle du serveur OpenJDK 64 bits, Java 1.8.0\$1282)
+ Spark version 3.1.1-amzn-0
+ spark-rapids 0.4.1
+ Sqoop version 1.4.7
+ TensorFlow version 2.4.1
+ tez version 0.9.2
+ Zeppelin version 0.9.0
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

**Nouvelles fonctionnalités**
+ Amazon EMR prend en charge les points d'accès Amazon S3, une fonctionnalité d'Amazon S3 qui vous permet de gérer facilement l'accès aux lacs de données partagés. En utilisant votre alias de point d'accès Amazon S3, vous pouvez simplifier l'accès aux données à grande échelle sur Amazon EMR. Vous pouvez utiliser les points d'accès Amazon S3 avec toutes les versions d'Amazon EMR sans frais supplémentaires dans toutes les AWS régions où Amazon EMR est disponible. Pour en savoir plus sur les points d'accès Amazon S3 et les alias de points d'accès, consultez [Utilisation d'un alias de type compartiment pour votre point d'accès](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) dans le *Guide de l'utilisateur Amazon S3*.
+ Les nouveaux paramètres d'API `DescribeReleaseLabel` et `ListReleaseLabel` fournissent des détails sur les étiquettes de version d'Amazon EMR. Vous pouvez répertorier par programmation les versions disponibles dans la région où la demande d'API est exécutée, et répertorier les applications disponibles pour une étiquette de version Amazon EMR spécifique. Les paramètres d'étiquette de version répertorient également les versions Amazon EMR qui prennent en charge une application spécifiée, telle que Spark. Ces informations peuvent être utilisées pour lancer par programmation des clusters Amazon EMR. Par exemple, vous pouvez lancer un cluster à l'aide de la dernière version des résultats de `ListReleaseLabel`. Pour plus d'informations, consultez [DescribeReleaseLabel](https://docs.aws.amazon.com/emr/latest/APIReference/API_DescribeReleaseLabel.html)et consultez [ListReleaseLabels](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)le manuel *Amazon EMR API* Reference.
+ Avec Amazon EMR 6.3.0, vous pouvez lancer un cluster qui s'intègre nativement à Apache Ranger. Apache Ranger est un cadre open source permettant d'activer, de surveiller et de gérer la sécurité globale des données sur la plateforme Hadoop. Pour plus d'informations, consultez [Apache Ranger](https://ranger.apache.org/). Grâce à l'intégration native, vous pouvez utiliser votre propre Apache Ranger pour appliquer un contrôle précis de l'accès aux données sur Amazon EMR. Consultez [Intégration d'Amazon EMR avec Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) dans le Guide de gestion Amazon EMR.
+ Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 EMR en remplacement des politiques qui seront déconseillées. Consultez [Politiques gérées par Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)
+ État de prise en charge du service de métadonnées d'instance (IMDS) V2 : pour Amazon EMR 6.2 ou version ultérieure, les composants Amazon EMR sont IMDSv2 utilisés pour tous les appels IMDS. Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Si vous la désactivez IMDSv1 dans les versions antérieures d'Amazon EMR 6.x, cela entraîne un échec du démarrage du cluster.

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le mode explain par défaut de l'interface utilisateur Spark SQL est passé de `extended` à `formatted` dans [Spark 3.1](https://issues.apache.org/jira/browse/SPARK-31325). Amazon EMR l'a ramené à `extended` pour inclure des informations sur le plan logique dans l'interface utilisateur Spark SQL. Ceci peut être inversé en définissant `spark.sql.ui.explainMode` sur `formatted`.
+ Les commits suivants ont été rétroportés depuis la branche master de Spark.

  - [[SPARK-34752]](https://issues.apache.org/jira/browse/SPARK-34752)[BUILD] Passer Jetty à la version 9.4.37 pour résoudre la CVE-2020-27223.

  - [[SPARK-34534]](https://issues.apache.org/jira/browse/SPARK-34534) Corrige l'ordre des blocs lorsque vous l'utilisez pour récupérer des blocs. FetchShuffleBlocks 

  - [[SPARK-34681]](https://issues.apache.org/jira/browse/SPARK-34681) [SQL] Correction d'un bogue pour les jointures de hachage réorganisées externes complètes lorsque le côté gauche est créé avec une condition non égale.

  - [[SPARK-34497]](https://issues.apache.org/jira/browse/SPARK-34497) [SQL] Correction des fournisseurs de connexion JDBC intégrés pour restaurer les changements de contexte de sécurité de la JVM.
+ Pour améliorer l'interopérabilité avec le RAPIDs plugin Nvidia Spark, une solution de contournement a été ajoutée pour résoudre un problème empêchant le déclenchement de l'élagage dynamique des partitions lors de l'utilisation de Nvidia Spark RAPIDs alors que l'exécution adaptative des requêtes est désactivée, consultez [les numéros \$11378 de RAPIDS et \$11386](https://github.com/NVIDIA/spark-rapids/issues/1378) de [RAPIDS](https://github.com/NVIDIA/spark-rapids/issues/1386). Pour plus de détails sur la nouvelle configuration `spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse`, consultez [Problème RAPIDS n°1386](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html#emr-spark-performance-dynamic).
+ L'algorithme par défaut du validateur de sortie de fichier a été modifié de l'algorithme v2 à l'algorithme v1 dans Spark 3.1 open source. Pour plus d'informations, consultez cette page [Amazon EMR optimisant les performances de Spark – élimination dynamique des partitions](https://issues.apache.org/jira/browse/SPARK-33019).
+ Amazon EMR est revenu à l'algorithme v2, l'algorithme par défaut utilisé dans les versions antérieures d'Amazon EMR 6.x, pour éviter une régression des performances. Pour rétablir le comportement de Spark 3.1 open source, définissez `spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version` sur `1`. Le Spark open source a apporté cette modification parce que la validation des tâches dans l'algorithme v2 du validateur de sortie de fichier n'est pas atomique, ce qui peut entraîner un problème d'exactitude des données de sortie dans certains cas. Cependant, la validation des tâches dans l'algorithme v1 n'est pas non plus atomique. Dans certains scénarios, la validation des tâches comprend une suppression effectuée avant un changement de nom. Cela peut entraîner un problème silencieux d'exactitude des données.
+ Correction des problèmes de Managed Scaling dans les versions précédentes d'Amazon EMR et améliorations permettant de réduire considérablement les taux d'échec des applications.
+ Le bundle AWS Java SDK a été installé sur chaque nouveau cluster. Il s'agit d'un fichier jar unique contenant tous les services SDKs et leurs dépendances, au lieu de fichiers jar de composants individuels. Pour plus d'informations, consultez [Dépendance du kit SDK Java groupé](https://aws.amazon.com/blogs/developer/java-sdk-bundle/).

**Problèmes connus**
+ Pour les clusters de sous-réseaux privés Amazon EMR 6.3.0 et 6.2.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites Web UIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec `sudo systemctl restart httpd`. Ce problème est résolu dans Amazon EMR 6.4.0.
+ Lorsque AWS Glue Data Catalog est activé, l'utilisation de Spark pour accéder à une base de données AWS Glue avec un URI d'emplacement de chaîne nul peut échouer. Cela se produit pour les versions antérieures d'Amazon EMR, mais pour SPARK-31709 (https://issues.apache). org/jira/browse/SPARK-31709) le rend applicable à un plus grand nombre de cas. Par exemple, lorsque vous créez une table dans la base de données AWS Glue par défaut dont l'URI d'emplacement est une chaîne nulle, le message « Impossible de créer un chemin à partir d'une chaîne vide » `spark.sql("CREATE TABLE mytest (key string) location '/table_path';")` échoue. Pour contourner ce problème, définissez manuellement l'URI de localisation de vos bases de données AWS Glue, puis créez des tables dans ces bases de données à l'aide de Spark.
+ Dans Amazon EMR 6.3.0, PrestoSQL a mis à niveau de la version 343 à la version 350. Il y a deux changements liés à la sécurité de l'open source qui se rapportent à ce changement de version. Le contrôle d'accès au catalogue basé sur les fichiers passe de `deny` à `allow` lorsque les règles de propriété de table, de schéma ou de session ne sont pas définies. De même, le contrôle d'accès au système basé sur les fichiers est modifié pour prendre en charge les fichiers sans règles de catalogue définies. Dans ce cas, tous les accès aux catalogues sont autorisés.

  Pour plus d'informations, consultez [Version 344 (9 octobre 2020)](https://trino.io/docs/current/release/release-344.html#security).
+ Notez que le répertoire utilisateur Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop et ses sous-répertoires, mais soyez conscient des autorisations associées à ces répertoires afin de protéger les informations sensibles.
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Les clusters EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement par défaut d’Amazon Linux et ne téléchargent pas et n’installent pas automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 qui exécutent l’AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d’une version d’Amazon EMR, les instances de cluster EMR qui exécutent l’AMI par défaut ne téléchargent pas et n’installent pas automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez [personnaliser votre AMI Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) afin d'[utiliser la dernière AMI Amazon Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie `workflow.xml`. Sinon, plusieurs bibliothèques critiques telles que Hadoop et EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.3.0
<a name="emr-630-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.7.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 350 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 350 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 350 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.3.0
<a name="emr-630-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.3.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.2.1
<a name="emr-621-release"></a>

## Versions d’application 6.2.1
<a name="emr-621-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1880 | 1,1880 | 1,1,828 | 1,1,828 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 
| Spark | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 343 | 338 | 338 | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.2.1
<a name="emr-621-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.2.1
<a name="emr-621-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.0.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.16.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,44,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-2.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-2.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-2.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.8.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.238.3-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.238.3-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 343 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 343 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 343 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.1-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.1-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.1-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0.2.0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.2.1
<a name="emr-621-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.2.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Not available. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Not available. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Not available. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.2.0
<a name="emr-620-release"></a>

## Versions d’application 6.2.0
<a name="emr-620-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1880 | 1,1,828 | 1,1,828 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 |  -  | 
| Presto | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 
| Spark | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 |  -  | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 338 | 338 |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.2.0
<a name="emr-620-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.2.0. Les modifications ont été apportées à la version 6.1.0.

Date de parution initiale : 9 décembre 2020

Dernière mise à jour : 4 octobre 2021

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.828
+ emr-record-server version 1.7.0
+ Flink version 1.11.2
+ Ganglia version 3.7.2
+ Hadoop version 3.2.1-amzn-1
+ HBase version 2.2.6-amzn-0
+ HBase-operator-tools 1.0.0
+ HCatalog version 3.1.2-amzn-0
+ Hive version 3.1.2-amzn-3
+ Hudi version 0.6.0-amzn-1
+ Hue version 4.8.0
+ JupyterHub version 1.1.0
+ Livy version 0.7.0
+ MXNet version 1.7.0
+ Oozie version 5.2.0
+ Phoenix version 5.0.0
+ Pig version 0.17.0
+ Presto version 0.238.3-amzn-1
+ PrestoSQL version 343
+ Spark version 3.0.1-amzn-0
+ spark-rapids 0.2.0
+ TensorFlow version 2.3.1
+ Zeppelin version 0.9.0-preview1
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

**Nouvelles fonctionnalités**
+ HBase: Suppression du changement de nom lors de la phase de validation et ajout d'un HFile suivi persistant. Consultez la section [ HFile Suivi permanent](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-hfile-tracking) dans le guide de *mise à jour d'Amazon EMR.*
+ HBase: Rétroporté [Créez une configuration qui oblige à mettre en cache les blocs lors du compactage](https://issues.apache.org/jira/browse/HBASE-23066).
+ PrestoDB : améliorations apportées à l'élimination dynamique des partitions. Join Reorder basée sur des règles fonctionne sur des données non partitionnées.
+ Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 EMR en remplacement des politiques qui seront déconseillées. Consultez [Politiques gérées par Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)
+ État de prise en charge du service de métadonnées d'instance (IMDS) V2 : pour Amazon EMR 6.2 ou version ultérieure, les composants Amazon EMR sont IMDSv2 utilisés pour tous les appels IMDS. Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Si vous la désactivez IMDSv1 dans les versions antérieures d'Amazon EMR 6.x, cela entraîne un échec du démarrage du cluster.

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Spark : amélioration des performances dans l'environnement d'exécution de Spark.

**Problèmes connus**
+ Les autorisations définies sur Amazon EMR 6.2 sont incorrectes. Le répertoire/etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance-logs est vide. Ce problème est corrigé dans Amazon EMR 6.3.0 et les versions ultérieures.

  Pour contourner ce problème, exécutez le script suivant en tant qu'action d'amorçage lors du lancement du cluster. 

  ```
  #!/bin/bash
  sudo chmod 644 /etc/cron.d/libinstance-controller-java
  ```
+ Pour les clusters de sous-réseaux privés Amazon EMR 6.2.0 et 6.3.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites Web UIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec `sudo systemctl restart httpd`. Ce problème est résolu dans Amazon EMR 6.4.0.
+ Amazon EMR 6.2.0 présente un problème selon lequel httpd échoue continuellement, ce qui rend Ganglia indisponible. Le message d'erreur « Impossible de se connecter au serveur » s'affiche. Pour réparer un cluster déjà en cours d'exécution présentant ce problème, connectez-vous en SSH au nœud primaire du cluster et ajoutez la ligne `Listen 80` au fichier `httpd.conf` situé dans `/etc/httpd/conf/httpd.conf`. Ce problème est résolu dans Amazon EMR 6.3.0.
+ HTTTD échoue sur les clusters EMR 6.2.0 lorsque vous utilisez une configuration de sécurité. Cela rend l'interface utilisateur de l'application web Ganglia indisponible. Pour accéder à l'interface utilisateur de l'application web Ganglia, ajoutez `Listen 80` au fichier `/etc/httpd/conf/httpd.conf` sur le nœud primaire de votre cluster. Pour plus d'informations sur la connexion à votre cluster, consultez [Connexion au nœud primaire à l'aide de SSH](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html).

  Blocs-notes EMR ne parvient pas non plus à établir une connexion avec les clusters EMR 6.2.0 lorsque vous utilisez une configuration de sécurité. Le bloc-notes ne parviendra pas à répertorier les noyaux et à soumettre les tâches Spark. Nous vous recommandons d'utiliser Blocs-notes EMR avec une autre version d'Amazon EMR à la place.
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Amazon EMR 6.1.0 et 6.2.0 présentent un problème de performance qui peut affecter de manière critique toutes les opérations insert, upsert et delete de Hudi. Si vous envisagez d'utiliser Hudi avec Amazon EMR 6.1.0 ou 6.2.0, AWS contactez le support pour obtenir un RPM Hudi corrigé.
+ 
**Important**  
Les clusters EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement par défaut d’Amazon Linux et ne téléchargent pas et n’installent pas automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 qui exécutent l’AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d’une version d’Amazon EMR, les instances de cluster EMR qui exécutent l’AMI par défaut ne téléchargent pas et n’installent pas automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez [personnaliser votre AMI Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) afin d'[utiliser la dernière AMI Amazon Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Les artefacts Maven d'Amazon EMR 6.2.0 ne sont pas publiés. Ils seront publiés avec une future version d'Amazon EMR.
+ Le HFile suivi permanent à l'aide de la table système HBase Storefile ne prend pas en charge la fonctionnalité de réplication des HBase régions. Pour plus d'informations sur HBase la réplication régionale, consultez la section Nombre [élevé de lectures disponibles cohérentes avec la chronologie](http://hbase.apache.org/book.html#arch.timelineconsistent.reads).
+ Différences de version entre Amazon EMR 6.x et EMR 5.x pour la compartimentation Hive

  EMR 5.x utilise OOS Apache Hive 2, tandis que EMR 6.x utilise OOS Apache Hive 3. La version open source Hive2 utilise la version 1 de Bucketing, tandis que la version open source Hive3 utilise la version 2. Cette différence de version de compartimentation entre Hive 2 (EMR 5.x) et Hive 3 (EMR 6.x) signifie que le hachage de compartimentation de Hive fonctionne différemment. Consultez l'exemple ci-dessous.

  Le tableau suivant est un exemple créé dans EMR 6.x et EMR 5.x, respectivement.

  ```
  -- Using following LOCATION in EMR 6.x
  CREATE TABLE test_bucketing (id INT, desc STRING)
  PARTITIONED BY (day STRING)
  CLUSTERED BY(id) INTO 128 BUCKETS
  LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/';
  
  -- Using following LOCATION in EMR 5.x 
  LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
  ```

  Insertion des mêmes données dans EMR 6.x et EMR 5.x.

  ```
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data');
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
  ```

  La vérification de l'emplacement S3 montre que le nom du fichier de compartimentation est différent, car la fonction de hachage est différente entre EMR 6.x (Hive 3) et EMR 5.x (Hive 2).

  ```
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/
  2020-10-21 20:35:16         13 000025_0
  2020-10-21 20:35:22         14 000121_0
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/
  2020-10-21 20:32:07         13 000066_0
  2020-10-21 20:32:51         14 000072_0
  ```

  Vous pouvez également constater la différence de version en exécutant la commande suivante dans la CLI Hive dans EMR 6.x. Notez qu'il renvoie la version 2 de compartimentation.

  ```
  hive> DESCRIBE FORMATTED test_bucketing;
  ...
  Table Parameters:
      bucketing_version       2
  ...
  ```
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.2.0
<a name="emr-620-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.0.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.16.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,44,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.8.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.238.3-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.238.3-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 343 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 343 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 343 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0.2.0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.2.0
<a name="emr-620-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.2.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Not available. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Not available. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Not available. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.1.1
<a name="emr-611-release"></a>

## Versions d’application 6.1.1
<a name="emr-611-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.1.1
<a name="emr-611-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versions des composants 6.1.1
<a name="emr-611-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,42,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-1.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-1.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-1.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.5 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.5 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.5 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.5 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.5 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.7.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.6.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.3.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 338 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 338 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 338 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.0-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.0-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.0-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.1.1
<a name="emr-611-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.1.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 6.1.0
<a name="emr-610-release"></a>

## Versions d’application 6.1.0
<a name="emr-610-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.1.0
<a name="emr-610-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.1.0. Les modifications ont été apportées à la version 6.0.0.

Date de parution initiale : 4 septembre 2020

Dernière mise à jour : 15 octobre 2020

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.828
+ Flink version 1.11.0
+ Ganglia version 3.7.2
+ Hadoop version 3.2.1-amzn-1
+ HBase version 2.2.5
+ HBase-operator-tools 1.0.0
+ HCatalog version 3.1.2-amzn-0
+ Hive version 3.1.2-amzn-1
+ Hudi version 0.5.2-incubation
+ Hue version 4.7.1
+ JupyterHub version 1.1.0
+ Livy version 0.7.0
+ MXNet version 1.6.0
+ Oozie version 5.2.0
+ Phoenix version 5.0.0
+ Presto version 0.232
+ PrestoSQL version 338
+ Spark version 3.0.0-amzn-0
+ TensorFlow version 2.1.0
+ Zeppelin version 0.9.0-preview1
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.14.0

**Nouvelles fonctionnalités**
+ Les types d'instance ARM sont pris en charge à partir des versions 5.30.0 et 6.1.0 d'Amazon EMR.
+ Les types d'instances à usage général M6g sont pris en charge à partir des versions 6.1.0 et 5.30.0 d'Amazon EMR. Pour plus d'informations, consultez [Types d'instance pris en charge](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html) dans le *Guide de gestion Amazon EMR*.
+ La fonctionnalité de groupe de placement EC2 est prise en charge à partir de la version 5.23.0 d'Amazon EMR en tant qu'option pour plusieurs clusters de nœuds primaires. Actuellement, seuls les types de nœuds primaires sont pris en charge par la fonctionnalité de groupe de placement. La stratégie `SPREAD` est appliquée à ces nœuds primaires. La stratégie `SPREAD` place un petit groupe d'instances sur un matériel sous-jacent distinct afin de se prémunir contre la perte de plusieurs nœuds primaires en cas de panne matérielle. Pour plus d'informations, consultez [Intégration d'EMR au groupe de placement EC2](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-placementgroup.html) dans le *Guide de gestion Amazon EMR*.
+ Mise à l'échelle gérée – Avec la version 6.1.0 d'Amazon EMR, vous pouvez activer la mise à l'échelle gérée par Amazon EMR pour augmenter ou diminuer automatiquement le nombre d'instances ou d'unités dans votre cluster en fonction de la charge de travail. Amazon EMR évalue en permanence les métriques de cluster pour prendre des décisions de dimensionnement qui optimisent vos clusters en termes de coût et de vitesse. Managed Scaling est également disponible sur Amazon EMR version 5.30.0 et suivantes, à l'exception de 6.0.0. Pour plus d'informations, consultez [Mise à l'échelle des ressources de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) dans le *Guide de gestion Amazon EMR*.
+ La version 338 de PrestoSQL est prise en charge avec EMR 6.1.0. Pour plus d'informations, consultez [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html).
  + PrestoSQL est uniquement pris en charge sur EMR 6.1.0 et versions ultérieures, pas sur EMR 6.0.0 ou EMR 5.x.
  + Le nom de l'application, `Presto` continue d'être utilisé pour installer PrestoDB sur des clusters. Pour installer PrestoSQL sur des clusters, utilisez le nom de l'application `PrestoSQL`.
  + Vous pouvez installer PrestoDB ou PrestoSQL, mais vous ne pouvez pas installer les deux sur un seul cluster. Si PrestoDB et PrestoSQL sont spécifiés lors de la tentative de création d'un cluster, une erreur de validation se produit et la demande de création de cluster échoue.
  + PrestoSQL est pris en charge sur les clusters mono-maître et muti-maître. Sur les clusters multi-maîtres, un métastore Hive externe est requis pour exécuter PrestoSQL ou Prestodb. Consultez [Applications prises en charge dans un cluster EMR avec plusieurs nœuds primaires](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list).
+ Prise en charge de l'authentification automatique ECR sur Apache Hadoop et Apache Spark avec Docker : les utilisateurs de Spark peuvent utiliser des images Docker provenant de Docker Hub et d'Amazon Elastic Container Registry (Amazon ECR) pour définir les dépendances de l'environnement et des bibliothèques.

  [Configurez Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) et [exécutez des applications Spark avec Docker à l'aide d'Amazon EMR 6.x](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ EMR prend en charge les transactions ACID d'Apache Hive : Amazon EMR 6.1.0 prend en charge les transactions ACID de Hive afin qu'elles soient conformes aux propriétés ACID d'une base de données. Grâce à cette fonctionnalité, vous pouvez exécuter les opérations `INSERT, UPDATE, DELETE,` et `MERGE` dans des tables gérées par Hive avec des données stockées dans Amazon Simple Storage Service (Amazon S3). Il s'agit d'une fonctionnalité essentielle pour les cas d'utilisation tels que l'ingestion en continu, le retraitement des données, les mises à jour en masse à l'aide de MERGE et les dimensions qui changent lentement. Pour plus d'informations, notamment des exemples de configuration et des cas supports, consultez [Amazon EMR prend en charge les transactions ACID d'Apache Hive](https://aws.amazon.com/blogs/big-data/amazon-emr-supports-apache-hive-acid-transactions).

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Apache Flink n'est pas pris en charge sur EMR 6.0.0, mais il l'est sur EMR 6.1.0 avec Flink 1.11.0. Il s'agit de la première version de Flink officiellement compatible avec Hadoop 3. Consultez [Annonce de sortie d'Apache Flink 1.11.0](https://flink.apache.org/news/2020/07/06/release-1.11.0.html).
+ Ganglia a été supprimé des packages EMR 6.1.0 par défaut.

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Amazon EMR 6.1.0 et 6.2.0 présentent un problème de performance qui peut affecter de manière critique toutes les opérations insert, upsert et delete de Hudi. Si vous envisagez d'utiliser Hudi avec Amazon EMR 6.1.0 ou 6.2.0, AWS contactez le support pour obtenir un RPM Hudi corrigé.
+ Si vous définissez une configuration de collecte des déchets personnalisée avec `spark.driver.extraJavaOptions` et`spark.executor.extraJavaOptions`, cela entraînera un échec du driver/executor lancement d'EMR 6.1 en raison d'une configuration de collecte des déchets conflictuelle. Avec la version 6.1.0 d'EMR, vous devez spécifier la configuration personnalisée du récupérateur de mémoire Spark pour les pilotes et les exécuteurs avec les propriétés `spark.driver.defaultJavaOptions` et `spark.executor.defaultJavaOptions` à la place. Pour en savoir plus, consultez [Environnement d'exécution Apache Spark](https://spark.apache.org/docs/latest/configuration.html#runtime-environment) et [Configuration du récupérateur de mémoire Spark sur Amazon EMR 6.1.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html#spark-gc-config).
+ L'utilisation de Pig avec Oozie (et au sein de Hue, puisque Hue utilise les actions Oozie pour exécuter les scripts Pig), génère une erreur indiquant qu'une bibliothèque native-lzo ne peut pas être chargée. Ce message d'erreur est informatif et n'empêche pas Pig de fonctionner.
+ Prise en charge de la simultanéité dans Hudi : Actuellement, Hudi ne prend pas en charge les écritures simultanées dans une seule table Hudi. De plus, Hudi annule toutes les modifications effectuées par les enregistreurs en cours avant de permettre à un nouvel enregistreur de démarrer. Les écritures simultanées peuvent interférer avec ce mécanisme et introduire des conditions de concurrence, ce qui peut entraîner une corruption des données. Vous devez vous assurer que, dans le cadre de votre flux de traitement des données, il n'y a qu'un seul enregistreur Hudi opérant sur une table Hudi à tout moment. Hudi prend en charge plusieurs lecteurs simultanés opérant sur la même table Hudi.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Il y a un problème dans Amazon EMR 6.1.0 qui affecte les clusters exécutant Presto. Après une période prolongée (plusieurs jours), le cluster peut générer des erreurs telles que "su : failed to execute /bin/bash : Resource temporarily unavailable" ou "shell request failed on channel 0". Ce problème est dû à un processus interne Amazon EMR (InstanceController) qui génère trop de processus légers (LWP), ce qui finit par amener l'utilisateur Hadoop à dépasser sa limite nproc. Cela empêche l'utilisateur d'ouvrir des processus supplémentaires. La solution à ce problème est de mettre à niveau vers EMR 6.2.0.

## Versions des composants 6.1.0
<a name="emr-610-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,42,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.5 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.5 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.5 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.5 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.5 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.7.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.6.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.3.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 338 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 338 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 338 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.1.0
<a name="emr-610-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.1.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 6.0.1
<a name="emr-601-release"></a>

## Versions d’application 6.0.1
<a name="emr-601-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.0.1
<a name="emr-601-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versions des composants 6.0.1
<a name="emr-601-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.39.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-0.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-0.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-0.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.230 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.230 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.230 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.0.1
<a name="emr-601-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.0.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 6.0.0
<a name="emr-600-release"></a>

## Versions d’application 6.0.0
<a name="emr-600-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.0.0
<a name="emr-600-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.0.0.

Date de parution initiale : 10 mars 2020

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.711
+ Ganglia version 3.7.2
+ Hadoop version 3.2.1
+ HBase version 2.2.3
+ HCatalog version 3.1.2
+ Hive version 3.1.2
+ Hudi version 0.5.0-incubation
+ Hue version 4.4.0
+ JupyterHub version 1.0.0
+ Livy version 0.6.0
+ MXNet version 1.5.1
+ Oozie version 5.1.0
+ Phoenix version 5.0.0
+ Presto version 0.230
+ Spark version 2.4.4
+ TensorFlow version 1.14.0
+ Zeppelin version 0.9.0-SNAPSHOT
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.14.0

**Note**  
Flink, Sqoop, Pig et Mahout ne sont pas disponibles dans Amazon EMR version 6.0.0. 

**Nouvelles fonctionnalités**
+ Prise en charge de l'exécution de Docker pour YARN - Les applications YARN, telles que les tâches Spark, peuvent désormais s'exécuter dans le contexte d'un conteneur Docker. Vous pouvez ainsi définir facilement des dépendances dans une image Docker sans avoir besoin d'installer des bibliothèques personnalisées sur votre cluster Amazon EMR. Pour plus d'informations, consultez [Configuration de l'intégration Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) et [Exécution des applications Spark avec Docker à l'aide d'Amazon EMR version 6.0.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ Prise en charge de LLAP pour Hive - Hive prend désormais en charge le mode d'exécution LLAP pour améliorer les performances des requêtes. Pour de plus amples informations, veuillez consulter [Utilisation de LLAP pour Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-llap.html).

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Amazon Linux
  + Amazon Linux 2 est le système d'exploitation de la série EMR version 6.x.
  + `systemd` est utilisé pour la gestion des services au lieu d'`upstart`, utilisé dans Amazon Linux 1.
+ Kit de développement Java (JDK)
  + Corretto JDK 8 est le JDK par défaut pour la série EMR version 6.x.
+ Scala
  + Scala 2.12 est utilisé avec Apache Spark et Apache Livy.
+ Python 3
  + Python 3 est maintenant la version par défaut de Python dans EMR.
+ Étiquettes de nœud YARN
  + À partir de la série Amazon EMR version 6.x, la fonction des étiquettes de nœud YARN est désactivée par défaut. Les processus principaux des applications peuvent s'exécuter à la fois sur les nœuds de noyau et sur les nœuds de tâche par défaut. Vous pouvez activer la fonction des étiquettes de nœud YARN en configurant les propriétés suivantes : `yarn.node-labels.enabled` et `yarn.node-labels.am.default-node-label-expression`. Pour plus d'informations, consultez [Comprendre les nœuds primaires, les nœuds principaux et les nœuds de tâches](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-master-core-task-nodes.html).

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Le shell interactif Spark PySpark, y compris SparkR et spark-shell, ne prend pas en charge l'utilisation de Docker avec des bibliothèques supplémentaires.
+ Pour utiliser Python 3 avec Amazon EMR version 6.0.0, vous devez ajouter `PATH` à `yarn.nodemanager.env-whitelist`.
+ La fonctionnalité Live Long and Process (LLAP) n'est pas prise en charge lorsque vous utilisez le catalogue de données AWS Glue comme métastore pour Hive.
+ Lorsque vous utilisez Amazon EMR 6.0.0 avec l'intégration Spark et Docker, vous devez configurer les instances de votre cluster avec le même type d'instance et la même quantité de volumes EBS pour éviter les échecs lors de la soumission d'une tâche Spark avec l'exécution Docker.
+ Dans Amazon EMR 6.0.0, le mode de stockage Amazon HBase S3 est impacté par le problème [HBASE-24286](https://issues.apache.org/jira/browse/HBASE-24286). HBase master ne peut pas s'initialiser lorsque le cluster est créé à l'aide de données S3 existantes.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 6.0.0
<a name="emr-600-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.39.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.230 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.230 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.230 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.0.0
<a name="emr-600-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.0.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Versions Amazon EMR 5.x
<a name="emr-release-5x"></a>

Cette section contient les versions des applications, les notes de mise à jour, les versions des composants et les classifications de configuration disponibles dans chaque version 5.x d'Amazon EMR.

Lorsque vous lancez un cluster, vous pouvez choisir parmi plusieurs versions d'Amazon EMR. Vous pouvez ainsi tester et utiliser des versions d'applications qui répondent à vos exigences de compatibilité. Vous spécifiez le numéro de version avec l’*étiquette de version*. Les étiquettes de version sont sous la forme `emr-x.x.x`. Par exemple, `emr-7.12.0`.

Les nouvelles versions d'Amazon EMR sont mises à disposition dans différentes régions sur une période de plusieurs jours, en commençant par la première région à la date de sortie initiale. Il est possible que la dernière version ne soit pas disponible dans votre région pendant cette période.

Pour un tableau complet des versions des applications dans chaque version 5.x d'Amazon EMR, consultez [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md).

**Topics**
+ [

# Versions des applications dans les versions 5.x d'Amazon EMR
](emr-release-app-versions-5.x.md)
+ [

# Amazon EMR version 5.36.2
](emr-5362-release.md)
+ [

# Amazon EMR version 5.36.1
](emr-5361-release.md)
+ [

# Amazon EMR version 5.36.0
](emr-5360-release.md)
+ [

# Amazon EMR version 5.35.0
](emr-5350-release.md)
+ [

# Amazon EMR version 5.34.0
](emr-5340-release.md)
+ [

# Amazon EMR version 5.33.1
](emr-5331-release.md)
+ [

# Amazon EMR version 5.33.0
](emr-5330-release.md)
+ [

# Amazon EMR version 5.32.1
](emr-5321-release.md)
+ [

# Amazon EMR version 5.32.0
](emr-5320-release.md)
+ [

# Amazon EMR version 5.31.1
](emr-5311-release.md)
+ [

# Amazon EMR version 5.31.0
](emr-5310-release.md)
+ [

# Amazon EMR version 5.30.2
](emr-5302-release.md)
+ [

# Amazon EMR version 5.30.1
](emr-5301-release.md)
+ [

# Amazon EMR version 5.30.0
](emr-5300-release.md)
+ [

# Amazon EMR version 5.29.0
](emr-5290-release.md)
+ [

# Amazon EMR version 5.28.1
](emr-5281-release.md)
+ [

# Amazon EMR version 5.28.0
](emr-5280-release.md)
+ [

# Amazon EMR version 5.27.1
](emr-5271-release.md)
+ [

# Amazon EMR version 5.27.0
](emr-5270-release.md)
+ [

# Amazon EMR version 5.26.0
](emr-5260-release.md)
+ [

# Amazon EMR version 5.25.0
](emr-5250-release.md)
+ [

# Amazon EMR version 5.24.1
](emr-5241-release.md)
+ [

# Amazon EMR version 5.24.0
](emr-5240-release.md)
+ [

# Amazon EMR version 5.23.1
](emr-5231-release.md)
+ [

# Amazon EMR version 5.23.0
](emr-5230-release.md)
+ [

# Amazon EMR version 5.22.0
](emr-5220-release.md)
+ [

# Amazon EMR version 5.21.2
](emr-5212-release.md)
+ [

# Amazon EMR version 5.21.1
](emr-5211-release.md)
+ [

# Amazon EMR version 5.21.0
](emr-5210-release.md)
+ [

# Amazon EMR version 5.20.1
](emr-5201-release.md)
+ [

# Amazon EMR version 5.20.0
](emr-5200-release.md)
+ [

# Amazon EMR version 5.19.1
](emr-5191-release.md)
+ [

# Amazon EMR version 5.19.0
](emr-5190-release.md)
+ [

# Amazon EMR version 5.18.1
](emr-5181-release.md)
+ [

# Amazon EMR version 5.18.0
](emr-5180-release.md)
+ [

# Amazon EMR version 5.17.2
](emr-5172-release.md)
+ [

# Amazon EMR version 5.17.1
](emr-5171-release.md)
+ [

# Amazon EMR version 5.17.0
](emr-5170-release.md)
+ [

# Amazon EMR version 5.16.1
](emr-5161-release.md)
+ [

# Amazon EMR version 5.16.0
](emr-5160-release.md)
+ [

# Amazon EMR version 5.15.1
](emr-5151-release.md)
+ [

# Amazon EMR version 5.15.0
](emr-5150-release.md)
+ [

# Amazon EMR version 5.14.2
](emr-5142-release.md)
+ [

# Amazon EMR version 5.14.1
](emr-5141-release.md)
+ [

# Amazon EMR version 5.14.0
](emr-5140-release.md)
+ [

# Amazon EMR version 5.13.1
](emr-5131-release.md)
+ [

# Amazon EMR version 5.13.0
](emr-5130-release.md)
+ [

# Amazon EMR version 5.12.3
](emr-5123-release.md)
+ [

# Amazon EMR version 5.12.2
](emr-5122-release.md)
+ [

# Amazon EMR version 5.12.1
](emr-5121-release.md)
+ [

# Amazon EMR version 5.12.0
](emr-5120-release.md)
+ [

# Amazon EMR version 5.11.4
](emr-5114-release.md)
+ [

# Amazon EMR version 5.11.3
](emr-5113-release.md)
+ [

# Amazon EMR version 5.11.2
](emr-5112-release.md)
+ [

# Amazon EMR version 5.11.1
](emr-5111-release.md)
+ [

# Amazon EMR version 5.11.0
](emr-5110-release.md)
+ [

# Amazon EMR version 5.10.1
](emr-5101-release.md)
+ [

# Amazon EMR version 5.10.0
](emr-5100-release.md)
+ [

# Amazon EMR version 5.9.1
](emr-591-release.md)
+ [

# Amazon EMR version 5.9.0
](emr-590-release.md)
+ [

# Amazon EMR version 5.8.3
](emr-583-release.md)
+ [

# Amazon EMR version 5.8.2
](emr-582-release.md)
+ [

# Amazon EMR version 5.8.1
](emr-581-release.md)
+ [

# Amazon EMR version 5.8.0
](emr-580-release.md)
+ [

# Amazon EMR version 5.7.1
](emr-571-release.md)
+ [

# Amazon EMR version 5.7.0
](emr-570-release.md)
+ [

# Amazon EMR version 5.6.1
](emr-561-release.md)
+ [

# Amazon EMR version 5.6.0
](emr-560-release.md)
+ [

# Amazon EMR version 5.5.4
](emr-554-release.md)
+ [

# Amazon EMR version 5.5.3
](emr-553-release.md)
+ [

# Amazon EMR version 5.5.2
](emr-552-release.md)
+ [

# Amazon EMR version 5.5.1
](emr-551-release.md)
+ [

# Amazon EMR version 5.5.0
](emr-550-release.md)
+ [

# Amazon EMR version 5.4.1
](emr-541-release.md)
+ [

# Amazon EMR version 5.4.0
](emr-540-release.md)
+ [

# Amazon EMR version 5.3.2
](emr-532-release.md)
+ [

# Amazon EMR version 5.3.1
](emr-531-release.md)
+ [

# Amazon EMR version 5.3.0
](emr-530-release.md)
+ [

# Amazon EMR version 5.2.3
](emr-523-release.md)
+ [

# Amazon EMR version 5.2.2
](emr-522-release.md)
+ [

# Amazon EMR version 5.2.1
](emr-521-release.md)
+ [

# Amazon EMR version 5.2.0
](emr-520-release.md)
+ [

# Amazon EMR version 5.1.1
](emr-511-release.md)
+ [

# Amazon EMR version 5.1.0
](emr-510-release.md)
+ [

# Amazon EMR version 5.0.3
](emr-503-release.md)
+ [

# Amazon EMR version 5.0.2
](emr-502-release.md)
+ [

# Amazon EMR version 5.0.1
](emr-501-release.md)
+ [

# Amazon EMR version 5.0.0
](emr-500-release.md)

# Versions des applications dans les versions 5.x d'Amazon EMR
<a name="emr-release-app-versions-5.x"></a>

Le tableau suivant répertorie les versions des applications disponibles dans chaque version 5.x d'Amazon EMR.


**Informations sur la version de l'application**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | mr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,206 | 1,12,206 | 1,12,206 | 1,12,159 | 1,1970 | 1,1970 | 1,1970 | 1,1,890 | 1,1,890 | 1,1,852 | 1,1,852 | 1,1,759 | 1,1,759 | 1,1,759 | 1,11,682 | 1,1,659 | 1,1,659 | 1,1,615 | 1,1,615 | 1,1595 | 1,1,566 | 1,1,546 | 1,1,546 | 1,1,519 | 1,1,519 | 1,11,510 | 1,11,479 | 1,11,479 | 1,11,479 | 1,11,461 | 1,11,461 | 1,1,433 | 1,1,433 | 1,11,393 | 1,11,393 | 1,1336 | 1,1336 | 1,1336 | 1,1336 | 1,1336 | 1,1333 | 1,1333 | 1,11,297 | 1,11,297 | 1,11,297 | 1,11,297 | 1,11,297 | 1,11,267 | 1,11,267 | 1,11,267 | 1,11,267 | 1,11,238 | 1,11,238 | 1,11,238 | 1,11,238 | 1,11,238 | 1,11,221 | 1,11,221 | 1,11,1183 | 1,11,1183 | 1,1,1160 | 1,1,1160 | 1,1,1160 | 1,1,1160 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 0.227 | 0.227 | 0.227 | 0.224 | 0.224 | 0.220 | 0.220 | 0.219 | 0.219 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.214 | 0.214 | 0.212 | 0.212 | 0.210 | 0.210 | 0.206 | 0.206 | 0.206 | 0.203 | 0.203 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.188 | 0.188 | 0.188 | 0.188 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.184 | 0.184 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

# Amazon EMR version 5.36.2
<a name="emr-5362-release"></a>

## versions de l'application 5.36.2
<a name="emr-5362-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,206 | 1,12,206 | 1,12,206 | 1,12,159 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## notes de mise à jour de la version 5.36.2
<a name="emr-5362-relnotes"></a>

Les notes de mise à jour suivantes incluent des informations relatives à la version 5.36.2 d'Amazon EMR. Les modifications sont relatives à la version 5.36.1. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5362-release.html#5362-changelog).

**Modifications, améliorations et problèmes résolus**
+ Cette version améliore la logique de réduction du cluster afin qu'Amazon EMR ne réduise pas les nœuds principaux en dessous du paramètre de facteur de réplication HDFS pour le cluster. Cette amélioration répond aux exigences de redondance des données et réduit le risque de blocage d'une opération de dimensionnement. 
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster s'exécute indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Résout un problème selon lequel les opérations de réduction du cluster pouvaient être bloquées alors qu'Amazon EMR mettait hors service gracieusement un nœud principal et que celui-ci devenait inutilisable avant sa mise hors service complète.
+ Améliore la stabilité d'un nœud dans un cluster à haute disponibilité comportant plusieurs nœuds principaux lorsqu'Amazon EMR redémarre un seul nœud.
+ Optimise la gestion des journaux avec Amazon EMR exécuté sur Amazon EC2. C'est pourquoi vous constaterez peut-être une légère réduction des coûts de stockage pour les journaux de votre cluster.
+ Améliore la gestion des fichiers journaux de ZooKeeper transactions conservés sur les nœuds principaux afin de minimiser les scénarios dans lesquels les fichiers journaux dépassent les limites et interrompent les opérations du cluster.
+ Corrige un bogue rare qui peut provoquer l'échec d'un cluster à haute disponibilité comportant plusieurs nœuds principaux en raison de l'impossibilité de communiquer avec le Yarn ResourceManager.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5362-release.html)

## Versions des composants 5.36.2
<a name="emr-5362-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.16.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.5.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.21.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.7.0 | Connecteur S3Select EMR | 
| emrfs | 2,51,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.9-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.9-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.9-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.9-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.9-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.9-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.10.1-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.10.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.10.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.267-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.267-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.267-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.8-amzn-2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.8-amzn-2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.8-amzn-2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.8-amzn-2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## 5.36.2 classifications de configuration
<a name="emr-5362-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**classifications EMR-5.36.2**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## 5.36.2 journal des modifications
<a name="5362-changelog"></a>


**Journal des modifications pour la version 5.36.2 et notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 28/05/2024 | Déploiement terminé | [Amazon EMR 5.36.2 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 28/05/2024 | Publication de documents | Notes de mise à jour d'Amazon EMR 5.36.2 publiées pour la première fois | 
| 20/05/2024 | Première version | Amazon EMR 5.36.2 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 5.36.1
<a name="emr-5361-release"></a>

## Versions d’application 5.36.1
<a name="emr-5361-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,206 | 1,12,206 | 1,12,159 | 1,1970 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.36.1
<a name="emr-5361-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.36.1. Les modifications ont été apportées à la version 5.36.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5361-release.html#5361-changelog).

**Modifications, améliorations et problèmes résolus**
+ La version 5.36.1 d'Amazon EMR ajoute la prise en charge de l'archivage des journaux dans Amazon S3 lors de la réduction de la taille du cluster. Dans les versions 5.x précédentes, vous pouviez uniquement archiver les fichiers journaux sur Amazon S3 lors de la résiliation du cluster. Cette amélioration garantit que les fichiers journaux générés sur le cluster sont conservés sur Amazon S3 même après la résiliation du nœud. Pour plus d'informations, consultez [Configuration de la journalisation et du débogage de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ La version 5.36.1 améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques. 
+ La version 5.36.1 redémarre automatiquement le démon de gestion des journaux du cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque.
+ La version 5.36.1 corrige un problème selon lequel les démons Amazon EMR sur le nœud primaire conservaient des métadonnées périmées pour les instances résiliées du cluster. La conservation de données périmées peut entraîner une augmentation illimitée de l'utilisation du processeur et de la mémoire au sein du cluster et, en fin de compte, des défaillances du cluster.
+ Pour les clusters lancés avec plusieurs nœuds primaires, la version 5.36.1 résout un problème selon lequel une défaillance matérielle d'Amazon EC2 sur l'un des nœuds primaires pouvait provoquer la défaillance d'un deuxième nœud primaire et rendre votre cluster instable.
+ Pour les clusters configurés avec un chiffrement en transit, Managed Scaling prend désormais en charge les *données de réorganisation Spark*. Les données de réorganisation Spark sont des données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques. Lors de la réduction, Managed Scaling ignore les instances contenant des données de réorganisation. Cela permet d'éviter les nouvelles tentatives de tâches et les nouveaux calculs, qui sont coûteux en termes de prix et de performances. Pour plus d'informations sur les opérations de réorganisation, consultez le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5361-release.html)

## Versions des composants 5.36.1
<a name="emr-5361-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.16.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.5.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.21.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.7.0 | Connecteur S3Select EMR | 
| emrfs | 2,51,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.9-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.9-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.9-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.9-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.9-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.9-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.10.1-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.10.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.10.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.267-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.267-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.267-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.8-amzn-2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.8-amzn-2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.8-amzn-2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.8-amzn-2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.36.1
<a name="emr-5361-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.36.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 5.36.1
<a name="5361-changelog"></a>


**Journal des modifications pour la version 5.36.1 et les notes de version**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 25/05/2023 | Déploiement terminé | [Amazon EMR 5.36.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 09/05/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 5.36.1 publiées pour la première fois | 
| 04/05/2023 | Première version | Amazon EMR 5.36.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 5.36.0
<a name="emr-5360-release"></a>

## Versions d’application 5.36.0
<a name="emr-5360-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,206 | 1,12,159 | 1,1970 | 1,1970 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hudi | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.36.0
<a name="emr-5360-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.36.0. Les modifications ont été apportées à la version 5.35.0.

Date de parution initiale : 15 juin 2022

**Nouvelles fonctionnalités**
+ La version 5.36.0 d'Amazon EMR ajoute la prise en charge du langage de définition de données (DDL) avec Apache Spark sur les clusters compatibles avec Apache Ranger. Cela vous permet d'utiliser Apache Ranger pour gérer l'accès à des opérations telles que la création, la modification et la suppression de bases de données et de tables d'un cluster Amazon EMR.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)


| OsReleaseLabel (Version Amazon Linux) | Version du noyau Amazon Linux | Date de disponibilité | Régions prises en charge | 
| --- | --- | --- | --- | 
| 2,0,20260302.0 | 4,14,355-280,714. amzn2 | 13 mars 2026 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0,20260216,0 | 4,14,355-280,714. amzn2 | 25 février 2026 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0.20260120.1 | 4,14,355-280,713. amzn2 | 18 février 2026 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0,20251208.0 | 4,14,355-280,710.amzn2 | 13 janvier 2026 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0.20251121.0 | 4.14.355-280.708.amzn2 | 16 décembre 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0.20251027.1 | 4.14.355-280.706.amzn2 | 10 novembre 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0,20250929,2 | 4.14.355-280,695.amzn2 | 13 octobre 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0,20250818,2 | 4.14.355-280,672. amzn2 | 17 septembre 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0.20250808.1 | 4.14.355-280.664.amzn2 | 28 août 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0.20250721.2 | 4.14.355-280,652. amzn2 | 14 août 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0.20250623.0 | 4.14.355-277.647 .amzn2 | 21 juillet 2025 | Afrique (Le Cap), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Canada (centre), Europe (Francfort), Europe (Zurich), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Irlande), Europe (Londres), Europe (Paris), Israël (Tel Aviv), Moyen-Orient (Émirats arabes unis), Moyen-Orient (Bahreïn), Amérique du Sud (São Paulo), États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Californie du Nord), Ouest des États-Unis (Oregon) | 
| 2,0,20250610,0 | 4.14.355-277.647 .amzn2 | 14 juillet 2025 | Europe (Stockholm), Moyen-Orient (Bahreïn), Chine (Pékin), Asie-Pacifique (Mumbai), Europe (Paris), Asie-Pacifique (Jakarta), États-Unis Est (Ohio), Afrique (Le Cap), Europe (Irlande), Moyen-Orient (Émirats arabes unis), Europe (Francfort), Amérique du Sud (São Paulo), Asie-Pacifique (Hong Kong), Asie-Pacifique (Hyderabad), USA Est (N. Virginie), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Europe (Londres), Europe (Milan), Asie-Pacifique (Tokyo), (États-Unis est), (États-Unis ouest) AWS GovCloud , ouest des États-Unis (Oregon), ouest des États-Unis (Californie du Nord), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney) AWS GovCloud ), Israël (Tel Aviv), Canada (centre), Europe (Espagne), Chine (Ningxia), Europe (Zurich) | 
| 2,0.20250527.1 | 4.14.355-277.647 .amzn2 | 19 juin 2025 | Europe (Stockholm), Moyen-Orient (Bahreïn), Asie-Pacifique (Mumbai), Europe (Paris), Asie-Pacifique (Jakarta), États-Unis Est (Ohio), Afrique (Le Cap), Europe (Irlande), Moyen-Orient (Émirats arabes unis), Europe (Francfort), Amérique du Sud (São Paulo), Asie-Pacifique (Hyderabad), USA Est (Virginie du Nord), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Europe (Londres), Asie-Pacifique (Melbourne), Europe (Milan), Asie-Pacifique (Tokyo), USA Ouest (Oregon), USA Ouest (Californie du Nord), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Israël (Tel Aviv), Canada (Centre), Europe (Espagne), Europe (Zurich) | 
| 2,0,20250512,0 | 4.14.355-277.643.amzn2 | 4 juin 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Milan), Europe (Paris), Europe (Stockholm), Asie-Pacifique (Hong Kong), Asie-Pacifique (Jakarta), Asie-Pacifique (Osaka), Asie-Pacifique (Séoul), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Tokyo), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis est), (ouest des États-Unis AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0,20250428,0 | 4,14,355-276,639. amzn2 | 23 mai 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Milan), Europe (Paris), Europe (Espagne), Europe (Stockholm), Europe (Zurich), Asie-Pacifique (Hong Kong), Asie-Pacifique (Hyderabad), Asie-Pacifique (Jakarta), Asie-Pacifique (Jakarta) (Melbourne), Asie-Pacifique (Mumbai), Asie-Pacifique (Osaka), Asie-Pacifique (Séoul), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Tokyo), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Moyen-Orient (Émirats arabes unis), Canada (Centre), Israël (Tel Aviv) | 
| 2,0,20250414,0 | 4,14,355-276,618. amzn2 | 12 mai 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0.20250321.0 | 4,14,355 | 9 avril 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0.20250305.0 | 4,14,355 | 18 mars 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0,20250220,0 | 4,14,355 | 8 mars 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0.20250201.0 | 4,14,355 | 28 février 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0.20250123.4 | 4,14,355 | 27 janvier 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0,20250116,0 | 4,14,355 | 23 janvier 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia) | 
| 2,0,20241217,0 | 4,14,355 | 8 janvier 2025 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia), Asie Pacifique (Hyderabad), Moyen-Orient (Émirats arabes unis), Europe (Espagne), Europe (Zurich), Asie-Pacifique (Melbourne), Israël (Tel Aviv)  | 
| 2,0.20240709.1 | 4,14348 | 23 juillet 2024 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour) Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), (États-Unis est AWS GovCloud ), Chine (Pékin AWS GovCloud ), Chine (Ningxia), Asie Pacifique (Hyderabad), Moyen-Orient (Émirats arabes unis), Europe (Espagne), Europe (Zurich), Asie-Pacifique (Melbourne), Israël (Tel Aviv)  | 
| 2.0.20230504.1 | 4,14.313 | 16 mai 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0,20230418,0 | 4,14.311 | 3 mai 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2.0.20230404.1 | 4,14.311 | 18 avril 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0.20230404.0 | 4,14.311 | 10 avril 2023 | USA Est (Virginie du Nord), Europe (Paris) | 
| 2,0,20230320,0 | 4,14,309 | 30 mars 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0.20230307.0 | 4,14,305 | 15 mars 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0.20230207.0 | 4,14,304 | 22 février 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2.0.20230119.1 | 4,14,301 | 3 février 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2.0.20221210.1 | 4,14,301 | 22 décembre 2023 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0.20221103.3 | 4,14.296 | 5 décembre 2022 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0.20221004.0 | 4,14.294 | 2 novembre 2022 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0.20220912.1 | 4,14,291 | 7 octobre 2022 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 
| 2,0,20220719,0 | 4,14.287 | 10 août 2022 | USA Ouest (Californie du Nord), Europe (Paris), Europe (Stockholm), Europe (Francfort), Asie-Pacifique (Mumbai), Moyen-Orient (Bahreïn) | 
| 2,0.20220426.0 | 4,14,281 | 14 juin 2022 | USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) | 

**Modifications, améliorations et problèmes résolus**
+ Les mises à niveau vers Amazon EMR 5.36.0 sont désormais prises en charge : aws-sdk 1.12.206, Hadoop 2.10.1-amzn-4, Hive 2.3.9-amzn-2, Hudi 0.10.1-amzn-1, Spark 2.4.8-amzn-2, Presto 0.267-amzn-1, connecteur Amazon Glue 1.18.0, EMRFS 2.51.0.

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## Versions des composants 5.36.0
<a name="emr-5360-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.16.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.5.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.21.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.7.0 | Connecteur S3Select EMR | 
| emrfs | 2,51,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.9-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.9-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.9-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.9-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.9-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.9-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.10.1-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.10.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.10.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.267-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.267-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.267-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.8-amzn-2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.8-amzn-2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.8-amzn-2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.8-amzn-2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.36.0
<a name="emr-5360-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.36.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.35.0
<a name="emr-5350-release"></a>

## Versions d’application 5.35.0
<a name="emr-5350-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,159 | 1,1970 | 1,1970 | 1,1970 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 
| Hive | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hudi | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.35.0
<a name="emr-5350-relnotes"></a>

Ceci est la note de mise à jour de la version 5.35.0 d'Amazon EMR.

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.35.0. Les modifications ont été apportées à la version 5.34.0.

Date de parution initiale : 30 mars 2022

**Nouvelles fonctionnalités**
+ Les applications Amazon EMR version 5.35 qui utilisent Log4j 1.x et Log4j 2.x sont mises à niveau pour utiliser Log4j 1.2.17 (ou version ultérieure) et Log4j 2.17.1 (ou version ultérieure) respectivement, et ne nécessitent pas d'actions d'amorçage pour atténuer les problèmes CVE dans les versions précédentes. Consultez [Approche visant à atténuer le CVE-2021-44228](emr-log4j-vulnerability.md).

**Modifications, améliorations et problèmes résolus**


**Modifications apportées à Flink**  

| Type de modification | Description | 
| --- | --- | 
| Mises à niveau | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Modifications apportées à Hadoop**  

| Type de modification | Description | 
| --- | --- | 
| Rétroportages de Hadoop open source depuis EMR 5.34.0 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Modifications et corrections apportées à Hadoop | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Modifications apportées à Hive**  

| Type de modification | Description | 
| --- | --- | 
| Hive est passé à la [version open source 2.3.9](https://www.mail-archive.com/user@hive.apache.org/msg22311.html), y compris ces correctifs JIRA | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Rétroportages de Hive open source depuis EMR 5.34.0 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Mises à niveau et correctifs apportés à Hive | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Nouvelles fonctionnalités | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Modifications apportées à Oozie**  

| Type de modification | Description | 
| --- | --- | 
| Rétroportages d'Oozie open source depuis EMR 5.34.0 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Modifications apportées à Pig**  

| Type de modification | Description | 
| --- | --- | 
| Mises à niveau | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-5350-release.html) | 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.35.0
<a name="emr-5350-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.15.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.5.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.20.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.7.0 | Connecteur S3Select EMR | 
| emrfs | 2,49,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.9-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.9-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.9-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.9-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.9-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.9-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.9-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.9.0-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.9.0-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.9.0-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.266-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.266-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.266-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.8-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.8-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.8-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.8-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.35.0
<a name="emr-5350-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.35.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.34.0
<a name="emr-5340-release"></a>

## Versions d’application 5.34.0
<a name="emr-5340-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1970 | 1,1970 | 1,1970 | 1,1,890 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 
| Hive | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hudi | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.34.0
<a name="emr-5340-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.34.0. Les modifications ont été apportées à la version 5.33.1.

Date de parution initiale : 20 janvier 2022

Date de mise à niveau : 21 mars 2022

**Nouvelles fonctionnalités**
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ [Hudi] Améliorations visant à simplifier la configuration de Hudi. Le contrôle de simultanéité optimiste a été désactivé par défaut.

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Auparavant, le redémarrage manuel du gestionnaire de ressources sur un cluster multimaître provoquait le rechargement par les démons Amazon EMR on-cluster, comme Zookeeper, de tous les nœuds précédemment mis hors service ou perdus dans le fichier znode de Zookeeper. Cela a entraîné le dépassement des limites par défaut dans certaines situations. Amazon EMR supprime désormais les enregistrements de nœuds mis hors service ou perdus datant de plus d'une heure du fichier Zookeeper et les limites internes ont été augmentées.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Mise à niveau de Zeppelin vers la version 0.10.0.
+ Livy Fix – mise à niveau vers la version 0.7.1
+ Amélioration des performances de Spark – les exécuteurs hétérogènes sont désactivés lorsque certaines valeurs de configuration de Spark sont remplacées dans EMR 5.34.0.
+ WebHDFS et le serveur HttpFS sont désactivés par défaut. Vous pouvez réactiver WebHDFS en utilisant la configuration Hadoop, `dfs.webhdfs.enabled`. Le serveur HttpFS peut être démarré en utilisant `sudo systemctl start hadoop-httpfs`.

**Problèmes connus**
+ La fonctionnalité Blocs-notes Amazon EMR utilisée avec l'emprunt d'identité de l'utilisateur Livy ne fonctionne pas car HttpFS est désactivé par défaut. Dans ce cas, le bloc-notes EMR ne peut pas se connecter au cluster dont l'emprunt d'identité Livy est activé. La solution consiste à démarrer le serveur HttpFS avant de connecter le bloc-notes EMR au cluster à l'aide de `sudo systemctl start hadoop-httpfs`.
+ Les requêtes Hue ne fonctionnent pas dans Amazon EMR 6.4.0 car le serveur Apache Hadoop HTTPFS est désactivé par défaut. Pour utiliser Hue sur Amazon EMR 6.4.0, démarrez manuellement le serveur HttpFS sur le nœud primaire d'Amazon EMR à l'aide de `sudo systemctl start hadoop-httpfs`, ou [utilisez une étape d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).
+ La fonctionnalité Blocs-notes Amazon EMR utilisée avec l'emprunt d'identité de l'utilisateur Livy ne fonctionne pas car HttpFS est désactivé par défaut. Dans ce cas, le bloc-notes EMR ne peut pas se connecter au cluster dont l'emprunt d'identité Livy est activé. La solution consiste à démarrer le serveur HttpFS avant de connecter le bloc-notes EMR au cluster à l'aide de `sudo systemctl start hadoop-httpfs`.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.34.0
<a name="emr-5340-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.14.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.4.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.7.0 | Connecteur S3Select EMR | 
| emrfs | 2,48,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.13.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.13.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.8-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.8-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.8-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.8-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.8-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.8-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.8-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.9.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.9.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.9.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.261-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.261-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.261-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.8-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.8-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.8-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.8-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.34.0
<a name="emr-5340-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.34.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.33.1
<a name="emr-5331-release"></a>

## Versions d’application 5.33.1
<a name="emr-5331-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1970 | 1,1970 | 1,1,890 | 1,1,890 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hudi | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.33.1
<a name="emr-5331-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.33.0/5.33.1. Les modifications ont été apportées à la version 5.32.0.

Date de parution initiale : 19 avril 2021

Dernière mise à jour : 9 août 2021

**Mises à niveau**
+ Mise à niveau du connecteur Amazon Glue vers la version 1.15.0
+ Mise à niveau AWS SDK pour Java vers la version 1.11.970
+ Mise à niveau de EMRFS vers la version 2.46.0
+ Mise à niveau de EMR Goodies vers la version 2.14.0
+ Mise à niveau du serveur d'enregistrement EMR vers la version 1.9.0
+ Mise à niveau de EMR S3 Dist CP vers la version 2.18.0
+ Mise à niveau de EMR Secret Agent vers la version 1.8.0
+ Mise à niveau de Flink vers la version 1.12.1
+ Mise à niveau de Hadoop vers la version 2.10.1-amzn-1
+ Mise à niveau de Hive vers la version 2.3.7-amzn-4
+ Mise à niveau de Hudi vers la version 0.7.0
+ Mise à niveau de Hue vers la version 4.9.0
+ Mise à niveau de OpenCV vers la version 4.5.0
+ Mise à niveau de Presto vers la version 0.245.1-amzn-0
+ Mise à niveau de R vers la version 4.0.2
+ Mise à niveau de Spark vers la version 2.4.7-amzn-1
+ Mise à niveau TensorFlow vers la version 2.4.1
+ Mise à niveau de Zeppelin vers la version 0.9.0

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ **Configuration d'un cluster pour résoudre les problèmes de performances d'Apache YARN Timeline Server versions 1 et 1.5**

  Les versions 1 et 1.5 d'Apache YARN Timeline Server peuvent entraîner des problèmes de performances avec de grands clusters EMR très actifs, en particulier avec `yarn.resourcemanager.system-metrics-publisher.enabled=true`, le paramètre par défaut d'Amazon EMR. YARN Timeline Server v2 open source résout le problème de performance lié à la capacité de mise à l'échelle de YARN Timeline Server.

  Les autres solutions à ce problème incluent :
  + Configuration de yarn.resourcemanager. system-metrics-publisher.enabled=false dans le fichier yarn-site.xml.
  + Activation du correctif pour ce problème lors de la création d'un cluster, comme décrit ci-dessous.

  Les versions Amazon EMR suivantes contiennent un correctif pour ce problème de performance de YARN Timeline Server.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  Pour activer le correctif sur l'une des versions Amazon EMR spécifiées ci-dessus, définissez ces propriétés sur `true` dans un fichier JSON de configuration transmis à l'aide du [paramètre de commande `aws emr create-cluster`](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html) : `--configurations file://./configurations.json`. Vous pouvez également activer le correctif à l'aide de l'[interface utilisateur de la console de reconfiguration](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Exemple du contenu du fichier configurations.json :

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ L'exécution de Spark est maintenant plus rapide lors de la récupération des emplacements de partition à partir de Hive Metastore pour les requêtes d'insertion de Spark.
+ Versions de composants mises à niveau. Pour obtenir la liste des versions des composants, consultez la section [À propos des versions d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html) dans ce guide.
+ Le bundle AWS Java SDK a été installé sur chaque nouveau cluster. Il s'agit d'un fichier jar unique contenant tous les services SDKs et leurs dépendances, au lieu de fichiers jar de composants individuels. Pour plus d'informations, consultez [Dépendance du kit SDK Java groupé](https://aws.amazon.com/blogs/developer/java-sdk-bundle/).
+ Correction des problèmes de Managed Scaling dans les versions précédentes d'Amazon EMR et améliorations permettant de réduire considérablement les taux d'échec des applications.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Nouvelles fonctionnalités**
+ Amazon EMR prend en charge les points d'accès Amazon S3, une fonctionnalité d'Amazon S3 qui vous permet de gérer facilement l'accès aux lacs de données partagés. En utilisant votre alias de point d'accès Amazon S3, vous pouvez simplifier l'accès aux données à grande échelle sur Amazon EMR. Vous pouvez utiliser les points d'accès Amazon S3 avec toutes les versions d'Amazon EMR sans frais supplémentaires dans toutes les AWS régions où Amazon EMR est disponible. Pour en savoir plus sur les points d'accès Amazon S3 et les alias de points d'accès, consultez [Utilisation d'un alias de type compartiment pour votre point d'accès](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) dans le *Guide de l'utilisateur Amazon S3*.
+ Amazon EMR-5.33 prend en charge de nouveaux types d'instances Amazon EC2 : c5a, c5ad, c6gn, c6gd, m6gd, d3, d3en, m5zn, r5b, r6gd. Consultez [Types d'instances pris en charge](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html).

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Pour les clusters de sous-réseaux privés Amazon EMR 6.3.0 et 6.2.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites Web UIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec `sudo systemctl restart httpd`. Ce problème est résolu dans Amazon EMR 6.4.0.
+ 
**Important**  
Les clusters EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement par défaut d’Amazon Linux et ne téléchargent pas et n’installent pas automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 qui exécutent l’AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d’une version d’Amazon EMR, les instances de cluster EMR qui exécutent l’AMI par défaut ne téléchargent pas et n’installent pas automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez [personnaliser votre AMI Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) afin d'[utiliser la dernière AMI Amazon Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ La prise en charge par console pour créer une configuration de sécurité spécifiant l'option d'intégration de AWS Ranger n'est actuellement pas prise en charge dans la GovCloud région. La configuration de la sécurité peut être effectuée à l'aide de la CLI. Consultez [Création de la configuration de sécurité EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html) dans le *Guide de gestion Amazon EMR*.
+ Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 EMR en remplacement des politiques qui seront déconseillées. Consultez [Politiques gérées par Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.33.1
<a name="emr-5331-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.14.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.6.0 | Connecteur S3Select EMR | 
| emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-1.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-1.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-1.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-1.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-1.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.7-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.7-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.7-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.7-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.7-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.7-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.7.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.7.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.7.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MySQL. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.7-amzn-1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.7-amzn-1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.7-amzn-1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.7-amzn-1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.33.1
<a name="emr-5331-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.33.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.33.0
<a name="emr-5330-release"></a>

## Versions d’application 5.33.0
<a name="emr-5330-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1970 | 1,1,890 | 1,1,890 | 1,1,852 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hudi | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.33.0
<a name="emr-5330-relnotes"></a>

## Versions des composants 5.33.0
<a name="emr-5330-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.14.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.6.0 | Connecteur S3Select EMR | 
| emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.7-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.7-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.7-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.7-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.7-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.7-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.7.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.7.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.7.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.7-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.7-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.7-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.7-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.33.0
<a name="emr-5330-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.33.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.32.1
<a name="emr-5321-release"></a>

## Versions d’application 5.32.1
<a name="emr-5321-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,890 | 1,1,890 | 1,1,852 | 1,1,852 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.32.1
<a name="emr-5321-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.32.1
<a name="emr-5321-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.1.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.17.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.6.0 | Connecteur S3Select EMR | 
| emrfs | 2,45,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-0.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-0.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-0.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-0.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-0.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.7-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.7-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.7-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.7-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.7-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.7-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.8.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MySQL. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.240.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.240.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.240.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.7-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.7-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.7-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.7-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.32.1
<a name="emr-5321-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.32.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.32.0
<a name="emr-5320-release"></a>

## Versions d’application 5.32.0
<a name="emr-5320-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,890 | 1,1,852 | 1,1,852 | 1,1,759 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 
| Spark | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.32.0
<a name="emr-5320-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.32.0. Les modifications ont été apportées à la version 5.31.0.

Date de parution initiale : 8 janvier 2021

**Mises à niveau**
+ Mise à niveau du connecteur Amazon Glue vers la version 1.14.0
+ Mise à niveau du SDK Amazon SageMaker Spark vers la version 1.4.1
+ Mise à niveau AWS SDK pour Java vers la version 1.11.890
+ Mise à niveau de la version 4.16.0 du connecteur DynamoDB d'EMR
+ Mise à niveau d'EMRFS vers la version 2.45.0
+ Mise à niveau des métriques d'analyse des journaux d'EMR vers la version 1.18.0
+  MetricsAndEventsApiGateway Client EMR mis à niveau vers la version 1.5.0
+ Mise à niveau du serveur d'enregistrement EMR vers la version 1.8.0
+ Mise à niveau d'EMR S3 Dist CP vers la version 2.17.0
+ Mise à niveau d'EMR Secret Agent vers la version 1.7.0
+ Mise à niveau de Flink vers la version 1.11.2
+ Mise à niveau de Hadoop vers la version 2.10.1-amzn-0
+ Mise à niveau de Hive vers la version 2.3.7-amzn-3
+ Mise à niveau de Hue vers la version 4.8.0
+ Mise à niveau de Mxnet vers la version 1.7.0
+ Mise à niveau d'OpenCV vers la version 4.4.0
+ Mise à niveau de Presto vers la version 0.240.1-amzn-0
+ Mise à niveau de Spark vers la version 2.4.7-amzn-0
+ Mise à niveau TensorFlow vers la version 2.3.1

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Versions de composants mises à niveau.
+ Pour obtenir la liste des versions des composants, consultez la section [À propos des versions d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html) dans ce guide.

**Nouvelles fonctionnalités**
+ À partir d'Amazon EMR 5.32.0 et 6.5.0, le dimensionnement dynamique de l'exécuteur pour Apache Spark est activé par défaut. Pour activer ou désactiver cette fonctionnalité, vous pouvez utiliser le paramètre de configuration `spark.yarn.heterogeneousExecutors.enabled`.
+ État de prise en charge du service de métadonnées d'instance (IMDS) V2 : les composants Amazon EMR 5.23.1, 5.27.1 et 5.32 ou versions ultérieures sont utilisés pour tous les appels IMDS. IMDSv2 Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Pour les autres versions 5.x EMR, la IMDSv1 désactivation entraîne l'échec du démarrage du cluster.
+ À partir d'Amazon EMR 5.32.0, vous pouvez lancer un cluster qui s'intègre nativement à Apache Ranger. Apache Ranger est un cadre open source permettant d'activer, de surveiller et de gérer la sécurité globale des données sur la plateforme Hadoop. Pour plus d'informations, consultez [Apache Ranger](https://ranger.apache.org/). Grâce à l'intégration native, vous pouvez utiliser votre propre Apache Ranger pour appliquer un contrôle précis de l'accès aux données sur Amazon EMR. Consultez [Intégration d'Amazon EMR à Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) dans le *Guide de version Amazon EMR.*
+ La version 5.32.0 d'Amazon EMR prend en charge Amazon EMR sur EKS. Pour en savoir plus sur la prise en main d'EMR sur EKS, consultez [Qu'est-ce qu'Amazon EMR sur EKS ?](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks.html).
+ La version 5.32.0 d'Amazon EMR prend en charge Amazon EMR Studio (version préliminaire). Pour plus d'informations sur la prise en main d'EMR Studio, consultez [Amazon EMR Studio (version préliminaire)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio.html).
+ Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 EMR en remplacement des politiques qui seront déconseillées. Consultez [Politiques gérées par Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)

**Problèmes connus**
+ Pour les clusters de sous-réseaux privés Amazon EMR 6.3.0 et 6.2.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites Web UIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec `sudo systemctl restart httpd`. Ce problème est résolu dans Amazon EMR 6.4.0.
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Les clusters EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement par défaut d’Amazon Linux et ne téléchargent pas et n’installent pas automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 qui exécutent l’AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d’une version d’Amazon EMR, les instances de cluster EMR qui exécutent l’AMI par défaut ne téléchargent pas et n’installent pas automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez [personnaliser votre AMI Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) afin d'[utiliser la dernière AMI Amazon Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ La prise en charge par console pour créer une configuration de sécurité spécifiant l'option d'intégration de AWS Ranger n'est actuellement pas prise en charge dans la GovCloud région. La configuration de la sécurité peut être effectuée à l'aide de la CLI. Consultez [Création de la configuration de sécurité EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html) dans le *Guide de gestion Amazon EMR*.
+ Lorsque AtRestEncryption le chiffrement HDFS est activé sur un cluster qui utilise Amazon EMR 5.31.0 ou 5.32.0, les requêtes Hive génèrent l'exception d'exécution suivante.

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.32.0
<a name="emr-5320-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.1.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.17.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.6.0 | Connecteur S3Select EMR | 
| emrfs | 2,45,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.1-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.1-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.1-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.1-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.7-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.7-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.7-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.7-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.7-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.7-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.8.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 | Serveur de base de données MySQL. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.240.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.240.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.240.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.7-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.7-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.7-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.7-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.32.0
<a name="emr-5320-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-5.32.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | Should not be reconfigured. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | Restarts EMR record server. | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | Restarts EMR record server. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restarts Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 5.31.1
<a name="emr-5311-release"></a>

## Versions d’application 5.31.1
<a name="emr-5311-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,852 | 1,1,852 | 1,1,759 | 1,1,759 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.31.1
<a name="emr-5311-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.31.1
<a name="emr-5311-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,15,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.15.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.6.0 | Connecteur S3Select EMR | 
| emrfs | 2.43.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.0-amzn-0.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.0-amzn-0.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.0-amzn-0.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.0-amzn-0.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.0-amzn-0.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.7-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.7-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.7-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.7-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.7-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.7-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.7.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.6.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.3.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.238.3-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.238.3-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.6-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.6-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.6-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.6-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.31.1
<a name="emr-5311-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.31.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.31.0
<a name="emr-5310-release"></a>

## Versions d’application 5.31.0
<a name="emr-5310-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,852 | 1,1,759 | 1,1,759 | 1,1,759 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.31.0
<a name="emr-5310-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.31.0. Les modifications ont été apportées à la version 5.30.1.

Date de parution initiale : 9 octobre 2020

Dernière mise à jour : 15 octobre 2020

**Mises à niveau**
+ Mise à niveau du connecteur Amazon Glue vers la version 1.13.0
+ Mise à niveau du SDK Amazon SageMaker Spark vers la version 1.4.0
+ Mise à niveau du connecteur Amazon Kinesis vers la version 3.5.9 
+ Mise à niveau AWS SDK pour Java vers la version 1.11.852
+ Mise à niveau de Bigtop-tomcat vers la version 8.5.56
+ Mise à niveau d'EMRFS vers la version 2.43.0
+  MetricsAndEventsApiGateway Client EMR mis à niveau vers la version 1.4.0
+ Mise à niveau d'EMR S3 Dist CP vers la version 2.15.0
+ Mise à niveau d'EMR S3 Select vers la version 1.6.0
+ Mise à niveau de Flink vers la version 1.11.0
+ Mise à niveau de Hadoop vers la version 2.10.0
+ Mise à niveau de Hive vers la version 2.3.7
+ Mise à niveau de Hudi vers la version 0.6.0
+ Mise à niveau de Hue vers la version 4.7.1
+ Mise à niveau JupyterHub vers la version 1.1.0
+ Mise à niveau de Mxnet vers la version 1.6.0
+ Mise à niveau d'OpenCV vers la version 4.3.0
+ Mise à niveau de Presto vers la version 0.238.3
+ Mise à niveau TensorFlow vers la version 2.1.0

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Les [statistiques des colonnes Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-ColumnStatistics) sont prises en charge pour les versions 5.31.0 et ultérieures d'Amazon EMR.
+ Versions de composants mises à niveau.
+ Prise en charge d'EMRFS S3EC V2 dans Amazon EMR 5.31.0. Dans les versions 1.11.837 et ultérieures du kit SDK Java S3, le client de chiffrement version 2 (S3EC V2) a été introduit avec diverses améliorations de sécurité. Pour plus d’informations, consultez les ressources suivantes :
  + Article de blog S3 : [Updates to the Amazon S3 encryption client](https://aws.amazon.com/blogs/developer/updates-to-the-amazon-s3-encryption-client/).
  + AWS SDK pour Java Guide du développeur : [Migrez les clients de chiffrement et de déchiffrement vers la version V2](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/s3-encryption-migration.html#s3-cse-update-code).
  + Guide de gestion EMR : [Chiffrement côté client Amazon S3](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-emrfs-encryption-cse.html).

  Le client de chiffrement V1 est toujours disponible dans le kit SDK pour des raisons de rétrocompatibilité.

**Nouvelles fonctionnalités**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Avec Amazon EMR 5.31.0, vous pouvez lancer un cluster qui s'intègre à Lake Formation. Cette intégration fournit un filtrage des données précis au niveau des colonnes pour les bases de données et les tables du Glue AWS Data Catalog. Il permet également une authentification unique fédérée à Blocs-notes EMR ou Apache Zeppelin à partir d'un système d'identité d'entreprise. Pour plus d'informations, consultez [Intégration d'Amazon EMR avec AWS Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html) dans le *Guide de gestion Amazon EMR*.

  Amazon EMR with Lake Formation est actuellement disponible dans 16 AWS régions : USA Est (Ohio et Virginie du Nord), USA Ouest (Californie du Nord et Oregon), Asie-Pacifique (Mumbai, Séoul, Singapour, Sydney et Tokyo), Canada (Centre), Europe (Francfort, Irlande, Londres, Paris et Stockholm), Amérique du Sud (São Paulo).

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Lorsque AtRestEncryption le chiffrement HDFS est activé sur un cluster qui utilise Amazon EMR 5.31.0 ou 5.32.0, les requêtes Hive génèrent l'exception d'exécution suivante.

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.31.0
<a name="emr-5310-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,15,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.15.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.6.0 | Connecteur S3Select EMR | 
| emrfs | 2.43.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.10.0-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.10.0-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.10.0-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.10.0-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.10.0-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.7-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.7-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.7-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.7-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.7-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.7-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-spark | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.7.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.6.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.3.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.238.3-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.238.3-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.6-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.6-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.6-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.6-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.31.0
<a name="emr-5310-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.31.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.30.2
<a name="emr-5302-release"></a>

## Versions d’application 5.30.2
<a name="emr-5302-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | mr-5.29.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,759 | 1,1,759 | 1,1,759 | 1,11,682 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hadoop | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.232 | 0.227 | 
| Spark | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.30.2
<a name="emr-5302-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.30.2
<a name="emr-5302-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.40.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.10.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-6.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-6.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-6.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-6.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-6.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.6-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.6-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.6-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.6-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.6-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.6-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.6.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.5-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.5-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.5-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.5-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.30.2
<a name="emr-5302-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.30.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.30.1
<a name="emr-5301-release"></a>

## Versions d’application 5.30.1
<a name="emr-5301-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.30.1 | emr-5.30.0 | mr-5.29.0 | emr-5.28.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,759 | 1,1,759 | 1,11,682 | 1,1,659 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.30.1
<a name="emr-5301-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.30.1. Les modifications ont été apportées à la version 5.30.0.

Date de parution initiale : 30 juin 2020

Dernière mise à jour : 24 août 2020

**Modifications, améliorations et problèmes résolus**
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Correction d'un problème à cause duquel le processus du contrôleur d'instance générait un nombre infini de processus.
+ Correction d'un problème où Hue ne parvenait pas à exécuter une requête Hive, affichant un message « la base de données est verrouillée » et empêchant l'exécution des requêtes.
+ Correction d'un problème lié à Spark qui permettait à un plus grand nombre de tâches de s'exécuter simultanément sur le cluster EMR.
+ Correction d'un problème de bloc-notes Jupyter provoquant une erreur « trop de fichiers ouverts » dans le serveur Jupyter.
+ Correction d'un problème lié aux temps de démarrage des clusters.

**Nouvelles fonctionnalités**
+ Les interfaces d'application persistantes Tez UI et YARN timeline server sont disponibles avec les versions 6.x d'Amazon EMR et les versions 5.30.1 et ultérieures d'EMR. L'accès par lien en un clic à l'historique des applications persistantes vous permet d'accéder rapidement à l'historique des tâches sans avoir à configurer un proxy web par le biais d'une connexion SSH. Les journaux des clusters actifs et résiliés sont disponibles pendant 30 jours après la fin de l'application. Pour plus d'informations, consultez [Affichage des interfaces utilisateur des applications persistantes](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html) dans le *Guide de gestion Amazon EMR*.
+ L'exécution de blocs-notes EMR est disponible pour exécuter APIs des blocs-notes EMR via un script ou une ligne de commande. La possibilité de démarrer, d'arrêter, de répertorier et de décrire les exécutions d'un bloc-notes EMR sans la AWS console vous permet de contrôler un bloc-notes EMR par programme. À l'aide d'une cellule de bloc-notes paramétrée, vous pouvez transmettre différentes valeurs de paramètres à un bloc-notes sans avoir à créer une copie du bloc-notes pour chaque nouvel ensemble de valeurs de paramètres. Consultez [Actions d'API EMR.](https://docs.aws.amazon.com/emr/latest/APIReference/API_Operations.html) Pour un exemple de code, consultez [Exemples de commandes pour l'exécution de blocs-notes EMR par programmation.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-headless.html)

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **Blocs-notes EMR**

  La fonctionnalité qui permet d'installer des noyaux et des bibliothèques Python supplémentaires sur le nœud primaire du cluster est désactivée par défaut dans la version EMR 5.30.1. Pour plus d'informations sur cette fonctionnalité, consultez [Installation de noyaux et de bibliothèques Python sur un nœud primaire de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html).

  Pour activer cette fonctionnalité, procédez comme suit :

  1. Assurez-vous que la politique d'autorisations attachée à la fonction du service pour les blocs-notes EMR autorise l'action suivante :

     `elasticmapreduce:ListSteps`

     Pour plus d'informations, consultez [Rôle de service pour les bloc-notes EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-service-role.html).

  1. Utilisez le AWS CLI pour exécuter une étape sur le cluster qui configure les Notebooks EMR, comme indiqué dans l'exemple suivant. Remplacez *us-east-1* par la région dans laquelle réside votre cluster. Pour plus d'informations sur l'ajout d'étapes, consultez la rubrique [Ajout d'étapes à un cluster à l'aide de la AWS CLI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).

     ```
     aws emr add-steps  --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
     ```
+ **Mise à l'échelle gérée**

  Les opérations de mise à l'échelle gérées sur des clusters 5.30.0 et 5.30.1 sans Presto installé peuvent provoquer des défaillances d'applications ou empêcher le maintien d'un groupe d'instances ou d'une flotte d'instances uniforme dans l'état `ARRESTED`, en particulier lorsqu'une opération de réduction est rapidement suivie d'une opération d'augementation.

  Pour contourner le problème, choisissez Presto comme application à installer lorsque vous créez un cluster avec les versions 5.30.0 et 5.30.1 d'Amazon EMR, même si votre travail ne nécessite pas Presto.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.30.1
<a name="emr-5301-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.40.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.10.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.6-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.6-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.6-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.6-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.6-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.6-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.6.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.5-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.5-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.5-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.5-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.30.1
<a name="emr-5301-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.30.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.30.0
<a name="emr-5300-release"></a>

## Versions d’application 5.30.0
<a name="emr-5300-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.30.0 | mr-5.29.0 | emr-5.28.1 | emr-5.28.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,759 | 1,11,682 | 1,1,659 | 1,1,659 | 
| Python | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.227 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.30.0
<a name="emr-5300-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.30.0. Les modifications ont été apportées à la version 5.29.0.

Date de parution initiale : 13 mai 2020

Date de la dernière mise à jour : 25 juin 2020

**Mises à niveau**
+ Mise à niveau AWS SDK pour Java vers la version 1.11.759
+ Mise à niveau du SDK Amazon SageMaker Spark vers la version 1.3.0
+ Mise à niveau du serveur d'enregistrement EMR vers la version 1.6.0
+ Mise à niveau de Flink vers la version 1.10.0
+ Mise à niveau de Ganglia vers la version 3.7.2
+ Mise à niveau HBase vers la version 1.4.13
+ Mise à niveau de Hudi vers la version 0.5.2 incubating
+ Mise à niveau de Hue vers la version 4.6.0
+ Mise à niveau JupyterHub vers la version 1.1.0
+ Mise à niveau de Livy vers la version 0.7.0-incubating
+ Mise à niveau d'Oozie vers la version 5.2.0
+ Mise à niveau de Presto vers la version 0.232
+ Mise à niveau de Spark vers la version 2.4.5
+ Connecteurs et pilotes mis à niveau : Amazon Glue Connector 1.12.0 ; Amazon Kinesis Connector 3.5.0 ; EMR DynamoDB Connector 4.14.0

**Nouvelles fonctionnalités**
+ **Blocs-notes EMR** – Lorsqu'ils sont utilisés avec des clusters EMR créés à l'aide de la version 5.30.0, les noyaux du bloc-notes EMR s'exécutent sur un cluster. Cela améliore les performances des blocs-notes et vous permet d'installer et de personnaliser les noyaux. Vous pouvez également installer des bibliothèques Python sur le nœud primaire du cluster. Pour plus d'informations, consultez [Installation et utilisation des noyaux et des bibliothèques](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html) dans le *Manuel de gestion EMR *.
+ **Dimensionnement géré** – Avec les versions 5.30.0 et ultérieures d'Amazon EMR, vous pouvez activer le dimensionnement géré par EMR pour augmenter ou diminuer automatiquement le nombre d'instances ou d'unités dans votre cluster en fonction de la charge de travail. Amazon EMR évalue en permanence les métriques de cluster pour prendre des décisions de dimensionnement qui optimisent vos clusters en termes de coût et de vitesse. Pour plus d'informations, consultez [Mise à l'échelle des ressources de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) dans le *Guide de gestion Amazon EMR*.
+ **Chiffrer les fichiers journaux stockés dans Amazon S3** : avec Amazon EMR version 5.30.0 et versions ultérieures, vous pouvez chiffrer les fichiers journaux stockés dans Amazon S3 à l'aide d'une clé gérée par le client. AWS KMS Pour plus d'informations, consultez [Chiffrer les fichiers journaux stockés dans Amazon S3](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html#emr-log-encryption) dans le *Guide de gestion Amazon EMR*.
+ **Prise en charge d'Amazon Linux 2** – Les versions 5.30.0 et ultérieures d'EMR utilisent le système d'exploitation Amazon Linux 2. La nouvelle personnalisation AMIs (Amazon Machine Image) doit être basée sur l'AMI Amazon Linux 2. Pour en savoir plus, consultez [Utilisation d'une image AMI personnalisée](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html).
+ **Dimensionnement automatique gracieux Presto** – Les clusters EMR utilisant la version 5.30.0 peuvent inclure un délai d'attente de dimensionnement automatique qui donne aux tâches Presto le temps s'exécuter complètement avant que leur nœud ne soit hors-service. Pour de plus amples informations, veuillez consulter [Utilisation du dimensionnement automatique de Presto avec désaffectation gracieuse](presto-graceful-autoscale.md).
+ **Création d'une instance de flotte avec une nouvelle option de stratégie d'allocation** – Une nouvelle option de stratégie d'allocation est disponible dans les versions 5.12.1 et ultérieures d'EMR. Cela permet un approvisionnement plus rapide des clusters, une allocation plus précise et moins d'interruptions d'instances Spot. Des mises à jour des rôles de service EMR autres que ceux par défaut sont requises. Consultez [Configuration de parcs d'instances](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-instance-fleet.html).
+ **Commandes sudo systemctl stop et sudo systemctl start** – Dans les versions 5.30.0 et ultérieures d'EMR, qui utilisent le système d'exploitation Amazon Linux 2, EMR utilise les commandes `sudo systemctl stop` et `sudo systemctl start` pour redémarrer les services. Pour plus d'informations, consultez [Comment redémarrer un service dans Amazon EMR ?](https://aws.amazon.com/premiumsupport/knowledge-center/restart-service-emr/).

**Modifications, améliorations et problèmes résolus**
+ EMR version 5.30.0 n'installe pas Ganglia par défaut. Lorsque vous créez un cluster, vous pouvez sélectionner expressément l’installation de Ganglia.
+ Optimisation des performances Spark.
+ Optimisation des performances Presto.
+ Python 3 est la version par défaut pour Amazon EMR version 5.30.0 et versions ultérieures.
+ Le groupe de sécurité géré par défaut pour l'accès au service dans les sous-réseaux privés a été mis à jour avec de nouvelles règles. Si vous utilisez un groupe de sécurité personnalisé pour accéder au service, vous devez inclure les mêmes règles que le groupe de sécurité géré par défaut. Pour plus d'informations, consultez [Groupe de sécurité géré par Amazon EMR pour l'accès au service (sous-réseaux privés)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-man-sec-groups.html#emr-sg-elasticmapreduce-sa-private). Si vous utilisez un rôle de service personnalisé pour Amazon EMR, vous devez accorder l'autorisation aux `ec2:describeSecurityGroups` pour permettre à EMR de confirmer que les groupes de sécurité sont correctement créés. Si vous utilisez le `EMR_DefaultRole`, cette autorisation est déjà incluse dans la stratégie gérée par défaut.

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **Mise à l'échelle gérée**

  Les opérations de mise à l'échelle gérées sur des clusters 5.30.0 et 5.30.1 sans Presto installé peuvent provoquer des défaillances d'applications ou empêcher le maintien d'un groupe d'instances ou d'une flotte d'instances uniforme dans l'état `ARRESTED`, en particulier lorsqu'une opération de réduction est rapidement suivie d'une opération d'augementation.

  Pour contourner le problème, choisissez Presto comme application à installer lorsque vous créez un cluster avec les versions 5.30.0 et 5.30.1 d'Amazon EMR, même si votre travail ne nécessite pas Presto.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Le moteur de base de données par défaut pour Hue 4.6.0 est SQLite, ce qui pose des problèmes lorsque vous essayez d'utiliser Hue avec une base de données externe. Pour résoudre ce problème, définissez `engine` de votre configuration de classification `hue-ini` sur `mysql`. Ce problème a été résolu dans la version 5.30.1 d'Amazon EMR.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 5.30.0
<a name="emr-5300-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.0.0 | Environnement Conda pour bloc-notes emr | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.40.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.10.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.13 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.13 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.6-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.6-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.6-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.6-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.6-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.6-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.6.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 2.4.5-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.5-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.5-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.5-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.30.0
<a name="emr-5300-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.30.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.29.0
<a name="emr-5290-release"></a>

## Versions d’application 5.29.0
<a name="emr-5290-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | mr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,682 | 1,1,659 | 1,1,659 | 1,1,615 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.227 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.29.0
<a name="emr-5290-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.29.0. Les modifications ont été apportées à la version 5.28.1.

Date de parution initiale : 17 janvier 2020

**Mises à niveau**
+ Mise à niveau AWS SDK pour Java vers la version 1.11.682
+ Mise à niveau de Hive vers la version 2.3.6
+ Mise à niveau de Flink vers la version 1.9.1
+ Mise à niveau d'EmrFS vers la version 2.38.0
+ Mise à niveau du connecteur DynamoDB d'EMR vers la version 4.13.0

**Modifications, améliorations et problèmes résolus**
+ Spark
  + Optimisation des performances Spark.
+ EMRFS
  + Mise à jour du guide de gestion avec les paramètres par défaut du fichier emrfs-site.xml pour un affichage cohérent.

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.29.0
<a name="emr-5290-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.13.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.12.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.13.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.4.0 | Connecteur S3Select EMR | 
| emrfs | 2.38.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.9.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.10 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.10 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.10 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.10 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.10 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.6-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.6-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.6-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.6-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.6-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.6-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.6-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.227 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.227 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.227 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.29.0
<a name="emr-5290-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.29.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.28.1
<a name="emr-5281-release"></a>

## Versions d’application 5.28.1
<a name="emr-5281-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,659 | 1,1,659 | 1,1,615 | 1,1,615 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.224 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.28.1
<a name="emr-5281-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.28.1. Les modifications ont été apportées à la version 5.28.0.

Date de parution initiale : 10 janvier 2020

**Modifications, améliorations et problèmes résolus**
+ Spark
  + Correction des problèmes de compatibilité Spark.
+ CloudWatch Métriques
  + Correction de la publication d'Amazon CloudWatch Metrics sur un cluster EMR comportant plusieurs nœuds principaux.
+ Message de journal désactivé
  + Message de faux journal désactivé, « ...en utilisant l'ancienne version (<4.5.8) du client HTTP Apache ».

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.28.1
<a name="emr-5281-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.12.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.11.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.13.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.37.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.9.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.10 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.10 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.10 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.10 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.10 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.6-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.6-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.6-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.6-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.6-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.6-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.227 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.227 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.227 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.28.1
<a name="emr-5281-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.28.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.28.0
<a name="emr-5280-release"></a>

## Versions d’application 5.28.0
<a name="emr-5280-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,659 | 1,1,615 | 1,1,615 | 1,1595 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hudi | 0.5.0-incubating |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.224 | 0.224 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.28.0
<a name="emr-5280-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.28.0. Les modifications ont été apportées à la version 5.27.0.

Date de parution initiale : 12 novembre 2019

**Mises à niveau**
+ Mise à niveau de Flink vers la version 1.9.0
+ Mise à niveau de Hive vers la version 2.3.6
+ Mise à niveau MXNet vers la version 1.5.1
+ Mise à niveau de Phoenix vers la version 4.14.3
+ Mise à niveau de Presto vers la version 0.227
+ Mise à niveau de Zeppelin vers la version 0.8.2

**Nouvelles fonctionnalités**
+ [Apache Hudi](https://hudi.apache.org/) est désormais disponible pour une installation via Amazon EMR lorsque vous créez un cluster. Pour de plus amples informations, veuillez consulter [Hudi](emr-hudi.md).
+ (25 novembre 2019) Vous pouvez maintenant choisir d'exécuter plusieurs étapes en parallèle pour améliorer l'utilisation du cluster et faire des économies. Vous pouvez également annuler à la fois les étapes en attente et celles en cours d'exécution. Pour plus d'informations, voir [Travailler avec des étapes à l'aide de la console AWS CLI AND](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-work-with-steps.html).
+ (3 décembre 2019) Vous pouvez désormais créer et exécuter des clusters EMR sur. AWS Outposts AWS Outposts permet AWS des services, une infrastructure et des modèles d'exploitation natifs dans les installations sur site. Dans AWS Outposts les environnements, vous pouvez utiliser les mêmes AWS APIs outils et infrastructures que ceux que vous utilisez dans le AWS cloud. Pour plus d'informations, consultez la section [Clusters EMR sur. AWS Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html)
+ (11 mars 2020) À partir de la version 5.28.0 d'Amazon EMR, vous pouvez créer et exécuter des clusters Amazon EMR sur un sous-réseau de zones AWS locales en tant qu'extension logique d'une région prenant en charge les zones locales. AWS Une zone locale permet aux fonctionnalités d'Amazon EMR et à un sous-ensemble de AWS services, tels que les services de calcul et de stockage, d'être situés plus près des utilisateurs, offrant ainsi un accès à très faible latence aux applications exécutées localement. Pour obtenir la liste des zones locales disponibles, consultez [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Pour plus d'informations sur l'accès aux zones AWS locales disponibles, voir [Régions, zones de disponibilité et zones locales](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html).

  Les zones Locales ne sont actuellement pas compatibles avec Blocs-notes Amazon EMR et ne prennent pas en charge les connexions directes à Amazon EMR via le point de terminaison d'un VPC d'interface (AWS PrivateLink).

**Modifications, améliorations et problèmes résolus**
+ Prise en charge d'applications étendues pour des clusters à haute disponibilité
  + Pour plus d'informations, consultez [Applications prises en charge dans un cluster EMR avec plusieurs nœuds primaires](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list) dans le *Guide de gestion Amazon EMR*.
+ Spark
  + Optimisation des performances
+ Hive
  + Optimisation des performances
+ Presto
  + Optimisation des performances

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.28.0
<a name="emr-5280-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.12.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.11.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.13.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.37.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.9.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.10 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.10 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.10 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.10 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.10 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.6-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.6-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.6-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.6-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.6-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.6-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.227 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.227 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.227 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.28.0
<a name="emr-5280-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.28.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.27.1
<a name="emr-5271-release"></a>

## Versions d’application 5.27.1
<a name="emr-5271-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,615 | 1,1,615 | 1,1595 | 1,1,566 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14.1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.224 | 0.220 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 5.27.1
<a name="emr-5271-relnotes"></a>

Il s'agit d'une version de correctif. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

État de prise en charge du service de métadonnées d'instance (IMDS) V2 : les composants Amazon EMR 5.23.1, 5.27.1 et 5.32 ou versions ultérieures sont utilisés pour tous les appels IMDS. IMDSv2 Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Pour les autres versions 5.x EMR, la IMDSv1 désactivation entraîne l'échec du démarrage du cluster.

## Versions des composants 5.27.1
<a name="emr-5271-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.12.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.11.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.13.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.36.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.8.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.10 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.10 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.10 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.10 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.10 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.5-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.5-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.5-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.5-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.5-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.5-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.4.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,2- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,2- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.224 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.224 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.27.1
<a name="emr-5271-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.27.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.27.0
<a name="emr-5270-release"></a>

## Versions d’application 5.27.0
<a name="emr-5270-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,615 | 1,1595 | 1,1,566 | 1,1,546 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.220 | 0.220 | 0.219 | 
| Spark | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 

## Notes de mise à jour 5.27.0
<a name="emr-5270-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.27.0. Les modifications ont été apportées à la version 5.26.0.

Date de parution initiale : 23 septembre 2019

**Mises à niveau**
+ AWS SDK pour Java 1,1,615
+ Flink 1.8.1
+ JupyterHub 1.0.0
+ Spark 2.4.4
+ TensorFlow 1.14.0
+ Connecteurs et pilotes :
  + Connecteur DynamoDB 4.12.0

**Nouvelles fonctionnalités**
+ (24 octobre 2019) Les nouvelles fonctionnalités suivantes des blocs-notes EMR sont disponibles avec toutes les versions d'Amazon EMR.
  + Vous pouvez désormais associer des référentiels Git aux blocs-notes EMR pour stocker vos blocs-notes dans un environnement à version contrôlée. Vous pouvez partager du code avec vos pairs et réutiliser les blocs-notes Jupyter existants via des référentiels Git distants. Pour plus d'informations, consultez [Associer des référentiels Git à Blocs-notes EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-git-repo.html) dans le *Guide de gestion Amazon EMR*.
  + L'[utilitaire nbdime](https://github.com/jupyter/nbdime) est désormais disponible dans les blocs-notes EMR afin de simplifier la comparaison et la fusion des blocs-notes.
  + Les ordinateurs portables EMR sont désormais compatibles. JupyterLab JupyterLab est un environnement de développement interactif basé sur le Web entièrement compatible avec les ordinateurs portables Jupyter. Vous pouvez désormais choisir d'ouvrir votre bloc-notes dans l'éditeur de bloc-notes Jupyter JupyterLab ou dans celui de Jupyter.
+ (30 octobre 2019) Avec Amazon EMR versions 5.25.0 et ultérieures, vous pouvez vous connecter à l'interface utilisateur du serveur d'historique Spark à partir de la page **Récapitulatif** du cluster ou de l'onglet **Historique de l'application** dans la console. Au lieu de configurer un proxy Web par le biais d'une connexion SSH, vous pouvez accéder rapidement à l'interface utilisateur du serveur d'historique Spark pour consulter les métriques de l'application et accéder aux fichiers journaux pertinents pour les clusters actifs et résiliés. Pour plus d'informations, consultez [Accès hors cluster aux interfaces utilisateur d'application persistante](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html) dans le *Guide de gestion Amazon EMR*.

**Modifications, améliorations et problèmes résolus**
+ Cluster Amazon EMR avec plusieurs nœuds primaires
  + Vous pouvez installer et exécuter Flink sur un cluster Amazon EMR comportant plusieurs nœuds primaires. Pour plus d'informations, consultez [Applications et fonctionnalités prises en charge](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html).
  + Vous pouvez configurer le chiffrement transparent HDFS sur un cluster Amazon EMR comportant plusieurs nœuds primaires. Pour plus d'informations, consultez [Chiffrement transparent HDFS sur les clusters EMR comportant plusieurs nœuds primaires](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-encryption-tdehdfs.html#emr-hadoop-kms-multi-master).
  + Vous pouvez désormais modifier la configuration des applications exécutées sur un cluster Amazon EMR comportant plusieurs nœuds primaires. Pour plus d'informations, consultez [Fourniture d'une configuration pour un groupe d'instances dans un cluster en cours d'exécution](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).
+ Connecteur Amazon EMR-DynamoDB
  + Le connecteur Amazon EMR-DynamoDB prend désormais en charge les types de données DynamoDB suivants : boolean, list, map, item, null. Pour plus d'informations, consultez [Configuration d'une table Hive pour l'exécution de commandes Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/EMR_Interactive_Hive.html).

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.27.0
<a name="emr-5270-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.12.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.11.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.13.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.36.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.8.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.10 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.10 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.10 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.10 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.10 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.5-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.5-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.5-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.5-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.5-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.5-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.4.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,2- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,2- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.224 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.224 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.27.0
<a name="emr-5270-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.27.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.26.0
<a name="emr-5260-release"></a>

## Versions d’application 5.26.0
<a name="emr-5260-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1595 | 1,1,566 | 1,1,546 | 1,1,546 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,2- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.220 | 0.219 | 0.219 | 
| Spark | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.26.0
<a name="emr-5260-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.26.0. Les modifications ont été apportées à la version 5.25.0.

Date de parution initiale : 8 août 2019

Dernière mise à jour : 19 août 2019

**Mises à niveau**
+ AWS SDK pour Java 1,1595
+ HBase 1.4.10
+ Phoenix 4.14.2
+ Connecteurs et pilotes :
  + Connecteur DynamoDB 4.11.0
  + Connecteur MariaDB 2.4.2
  + Pilote JDBC Amazon Redshift version 1.2.32.1056

**Nouvelles fonctionnalités**
+ (Bêta) Avec Amazon EMR 5.26.0, vous pouvez lancer un cluster qui s'intègre à Lake Formation. Cette intégration fournit un accès détaillé au niveau des colonnes aux bases de données et aux tables du Glue AWS Data Catalog. Il permet également une authentification unique fédérée à Blocs-notes EMR ou Apache Zeppelin à partir d'un système d'identité d'entreprise. Pour plus d'informations, consultez [Intégrer Amazon EMR à AWS Lake Formation (version bêta)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html).
+ (19 août 2019) Bloquer l'accès public d'Amazon EMR est désormais disponible avec toutes les versions d'Amazon EMR qui prennent en charge les groupes de sécurité. Bloquer l'accès public est un paramètre applicable à l'ensemble du compte et appliqué à chaque AWS région. Le blocage de l'accès public empêche le lancement d'un cluster lorsqu'un groupe de sécurité associé au cluster possède une règle autorisant le trafic entrant depuis IPv4 0.0.0.0/0 ou IPv6  : :/0 (accès public) sur un port, sauf si un port est spécifié comme exception. Le port 22 est une exception par défaut. Pour plus d'informations, consultez [Utilisation d'Amazon EMR Block Public Access](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-block-public-access.html) dans le *Guide de gestion Amazon EMR*.

**Modifications, améliorations et problèmes résolus**
+ Blocs-notes EMR
  + Avec EMR 5.26.0 et versions ultérieures, Blocs-notes EMR prend en charge les bibliothèques Python limitées aux blocs-notes en plus des bibliothèques Python par défaut. Vous pouvez installer des bibliothèques limitées au bloc-notes depuis l'éditeur de bloc-notes sans avoir à recréer un cluster ou à rattacher un bloc-notes à un cluster. Les bibliothèques limitées aux blocs-notes sont créées dans un environnement virtuel Python, de sorte qu'elles ne s'appliquent qu'à la session de bloc-notes en cours. Cela vous permet d'isoler les dépendances du bloc-notes. Pour plus d'informations, consultez [Utilisation de bibliothèques limitées aux blocs-notes](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-custom-libraries-limitations.html) dans le *Guide de gestion Amazon EMR*.
+ EMRFS
  + Vous pouvez activer une fonctionnalité ETag de vérification (version bêta) en réglant `fs.s3.consistent.metadata.etag.verification.enabled` sur`true`. Grâce à cette fonctionnalité, EMRFS utilise Amazon S3 ETags pour vérifier que les objets lus sont de la dernière version disponible. Cette fonctionnalité est utile dans les cas read-after-update d'utilisation dans lesquels des fichiers sur Amazon S3 sont remplacés tout en conservant le même nom. Cette fonctionnalité de ETag vérification ne fonctionne pas actuellement avec S3 Select. Pour plus d'informations, consultez [Configuration de la vue cohérente](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emrfs-configure-consistent-view.html).
+ Spark
  + Les optimisations suivantes sont désormais activées par défaut : élimination dynamique des partitions, DISTINCT avant INTERSECT, amélioration de l'inférence des statistiques de plan SQL pour les requêtes JOIN suivies de DISTINCT, aplatissement des sous-requêtes scalaires, réorganisation optimisée des jointures et jointure par filtre bloom. Pour plus d'informations, consultez [Optimisation des performances de Spark](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html).
  + Génération de code améliorée pour l'ensemble de l'étape pour Sort Merge Join.
  + Amélioration de la réutilisation des fragments de requête et des sous-requêtes.
  + Améliorations apportées à la préallocation des exécuteurs au démarrage de Spark.
  + Les jointures par filtre bloom ne sont plus appliquées lorsque le côté le plus petit de la jointure inclut un indice de diffusion.
+ Tez
  + Un problème avec Tez a été résolu. L'interface utilisateur de Tez fonctionne désormais sur un cluster Amazon EMR avec plusieurs nœuds primaires.

**Problèmes connus**
+ Les fonctionnalités améliorées de génération de code pour l'ensemble de l'étape pour Sort Merge Join peuvent augmenter la sollicitation de la mémoire lorsqu'elles sont activées. Cette optimisation améliore les performances, mais peut entraîner de nouvelles tentatives de tâches ou des échecs si `spark.yarn.executor.memoryOverheadFactor` n'est pas réglé pour fournir suffisamment de mémoire. Pour désactiver cette fonctionnalité, définissez `spark.sql.sortMergeJoinExec.extendedCodegen.enabled` sur false.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.26.0
<a name="emr-5260-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.11.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.10.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.12.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.35.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.8.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.10 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.10 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.10 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.10 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.10 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.5-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.5-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.5-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.5-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.5-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.5-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.6 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.4.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,2- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,2- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.220 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.220 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.13.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.26.0
<a name="emr-5260-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.26.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.25.0
<a name="emr-5250-release"></a>

## Versions d’application 5.25.0
<a name="emr-5250-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,566 | 1,1,546 | 1,1,546 | 1,1,519 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 
| Hive | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.219 | 0.219 | 0.215 | 
| Spark | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.25.0
<a name="emr-5250-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.25.0. Les modifications ont été apportées à la version 5.24.1.

Date de parution initiale : 17 juillet 2019

Dernière mise à jour : 30 octobre 2019

**Amazon EMR 5.25.0**

**Mises à niveau**
+ AWS SDK pour Java 1,1,566
+ Hive 2.3.5
+ Presto 0.220
+ Spark 2.4.3
+ TensorFlow 1.13.1
+ Tez 0.9.2
+ Zookeeper 3.4.14

**Nouvelles fonctionnalités**
+ (30 octobre 2019) À partir de la version 5.25.0 d'Amazon EMR, vous pouvez vous connecter à l'interface utilisateur du serveur d'historique Spark à partir de la page **Récapitulatif** du cluster ou de l'onglet **Historique de l'application** dans la console. Au lieu de configurer un proxy Web par le biais d'une connexion SSH, vous pouvez accéder rapidement à l'interface utilisateur du serveur d'historique Spark pour consulter les métriques de l'application et accéder aux fichiers journaux pertinents pour les clusters actifs et résiliés. Pour plus d'informations, consultez [Accès hors cluster aux interfaces utilisateur d'application persistante](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html) dans le *Guide de gestion Amazon EMR*.

**Modifications, améliorations et problèmes résolus**
+ Spark
  + Amélioration des performances de certaines jointures en utilisant des filtres Bloom pour préfiltrer les entrées. L'optimisation est désactivée par défaut et peut être activée en définissant le paramètre de configuration Spark `spark.sql.bloomFilterJoin.enabled` sur `true`.
  + Amélioration des performances du regroupement par colonnes de type chaîne.
  + Amélioration de la mémoire par défaut de l'exécuteur Spark et de la configuration des cœurs des types d'instances R4 pour les clusters non HBase installés.
  + Résolution d'un problème antérieur lié à la fonctionnalité d'élimination dynamique des partitions, où la table éliminée devait se trouver du côté gauche de la jointure.
  + Amélioration de l'optimisation DISTINCT avant INTERSECT pour l'appliquer à des cas supplémentaires impliquant des alias.
  + Amélioration de l'inférence des statistiques de plan SQL pour les requêtes JOIN suivies de DISTINCT. Cette amélioration est désactivée par défaut et peut être activée en définissant le paramètre de configuration Spark `spark.sql.statsImprovements.enabled` sur `true`. Cette optimisation est requise par la fonctionnalité Distinct avant Intersect et sera automatiquement activée lorsque `spark.sql.optimizer.distinctBeforeIntersect.enabled` est définie sur `true`.
  + Ordre de jointure optimisé en fonction de la taille de la table et des filtres. Cette optimisation est désactivée par défaut et peut être activée en définissant le paramètre de configuration Spark `spark.sql.optimizer.sizeBasedJoinReorder.enabled` sur `true`.

  Pour plus d'informations, consultez [Optimisation des performances de Spark](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html).
+ EMRFS
  + Le paramètre EMRFS, `fs.s3.buckets.create.enabled`, est désormais désactivé par défaut. Lors des tests, nous avons constaté que la désactivation de ce paramètre améliore les performances et empêche la création involontaire de compartiments S3. Si votre application repose sur cette fonctionnalité, vous pouvez l'activer en définissant la propriété `fs.s3.buckets.create.enabled` sur `true` dans la classification de configuration `emrfs-site`. Pour plus d'informations, consultez [Fourniture d'une configuration lors de la création d'un cluster](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html).
+ Améliorations du chiffrement du disque local et du chiffrement S3 dans les configurations de sécurité (5 août 2019)
  + Les paramètres de chiffrement Amazon S3 ont été séparés des paramètres de chiffrement du disque local dans la configuration de la sécurité.
  + Ajout d'une option permettant d'activer le chiffrement EBS avec les versions 5.24.0 et ultérieures. La sélection de cette option chiffre le volume du périphérique racine en plus des volumes de stockage. Les versions précédentes nécessitaient l'utilisation d'une AMI personnalisée pour chiffrer le volume du périphérique racine.
  + Pour plus d'informations, consultez [Options de chiffrement](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html) dans le *Guide de gestion Amazon EMR*.

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.25.0
<a name="emr-5250-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.10.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.9.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.34.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.8.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.9 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.9 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.9 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.9 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.9 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.5-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.5-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.5-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.5-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.5-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.5-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.6 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.4.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14.1- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14.1- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.220 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.220 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.13.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.25.0
<a name="emr-5250-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.25.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.24.1
<a name="emr-5241-release"></a>

## Versions d’application 5.24.1
<a name="emr-5241-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,546 | 1,1,546 | 1,1,519 | 1,1,519 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.219 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.24.1
<a name="emr-5241-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.24.1. Les modifications ont été apportées à la version 5.24.0.

Date de parution initiale : 26 juin 2019

**Modifications, améliorations et problèmes résolus**
+ Mise à jour de l'AMI Amazon Linux par défaut pour Amazon EMR afin d'inclure d'importantes mises à jour de sécurité du noyau Linux, notamment le problème de déni de service TCP SACK ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.24.1
<a name="emr-5241-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.9.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.8.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.33.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.8.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.9 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.9 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.9 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.9 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.9 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.6 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.4.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14.1- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14.1- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.219 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.219 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.24.1
<a name="emr-5241-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.24.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.24.0
<a name="emr-5240-release"></a>

## Versions d’application 5.24.0
<a name="emr-5240-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,546 | 1,1,519 | 1,1,519 | 1,11,510 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.24.0
<a name="emr-5240-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.24.0. Les modifications ont été apportées à la version 5.23.0.

Date de parution initiale : 11 juin 2019

Dernière mise à jour : 5 août 2019

**Mises à niveau**
+ Flink 1.8.0
+ Hue 4.4.0
+ JupyterHub 0,9,6
+ Livy 0.6.0
+ MxNet 1.4.0
+ Presto 0.219
+ Spark 2.4.2
+ AWS SDK pour Java 1,1,546
+ Connecteurs et pilotes :
  + Connecteur DynamoDB 4.9.0
  + Connecteur MariaDB 2.4.1
  + Pilote JDBC Amazon Redshift version 1.2.27.1051

**Modifications, améliorations et problèmes résolus**
+ Spark
  + Ajout d'une optimisation pour éliminer dynamiquement les partitions. L'optimisation est désactivée par défaut. Pour l'activer, définissez le paramètre de configuration Spark `spark.sql.dynamicPartitionPruning.enabled` sur `true`.
  + Amélioration des performances des requêtes `INTERSECT`. L'optimisation est désactivée par défaut. Pour l'activer, définissez le paramètre de configuration Spark `spark.sql.optimizer.distinctBeforeIntersect.enabled` sur `true`.
  + Ajout d'une optimisation pour aplatir les sous-requêtes scalaires avec des agrégats qui utilisent la même relation. L'optimisation est désactivée par défaut. Pour l'activer, définissez le paramètre de configuration Spark `spark.sql.optimizer.flattenScalarSubqueriesWithAggregates.enabled` sur `true`.
  + Génération de code améliorée pour l'ensemble de l'étape.

  Pour plus d'informations, consultez [Optimisation des performances de Spark](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html).
+ Améliorations du chiffrement du disque local et du chiffrement S3 dans les configurations de sécurité (5 août 2019)
  + Les paramètres de chiffrement Amazon S3 ont été séparés des paramètres de chiffrement du disque local dans la configuration de la sécurité.
  + Ajout d'une option pour activer le chiffrement EBS. La sélection de cette option chiffre le volume du périphérique racine en plus des volumes de stockage. Les versions précédentes nécessitaient l'utilisation d'une AMI personnalisée pour chiffrer le volume du périphérique racine.
  + Pour plus d'informations, consultez [Options de chiffrement](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html) dans le *Guide de gestion Amazon EMR*.

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.24.0
<a name="emr-5240-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.9.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.8.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.3.0 | Connecteur S3Select EMR | 
| emrfs | 2.33.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.8.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.9 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.9 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.9 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.9 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.9 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.6 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.4.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14.1- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14.1- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.219 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.219 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.24.0
<a name="emr-5240-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.24.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.23.1
<a name="emr-5231-release"></a>

## Versions d’application 5.23.1
<a name="emr-5231-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,519 | 1,1,519 | 1,11,510 | 1,11,479 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 
| Phoenix | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.23.1
<a name="emr-5231-relnotes"></a>

Il s'agit d'une version de correctif. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

État de prise en charge du service de métadonnées d'instance (IMDS) V2 : les composants Amazon EMR 5.23.1, 5.27.1 et 5.32 ou versions ultérieures sont utilisés pour tous les appels IMDS. IMDSv2 Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Pour les autres versions 5.x EMR, la IMDSv1 désactivation entraîne l'échec du démarrage du cluster.

## Versions des composants 5.23.1
<a name="emr-5231-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.8.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.7.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.32.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.7.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.9 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.9 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.9 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.9 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.9 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14.1- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14.1- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.215 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.215 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.23.1
<a name="emr-5231-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.23.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.23.0
<a name="emr-5230-release"></a>

## Versions d’application 5.23.0
<a name="emr-5230-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,519 | 1,11,510 | 1,11,479 | 1,11,479 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14.1- -1,4 HBase | 4,14.1- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.23.0
<a name="emr-5230-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.23.0. Les modifications ont été apportées à la version 5.22.0.

Date de parution initiale : 1 avril 2019

Dernière mise à jour : 30 avril 2019

**Mises à niveau**
+ AWS SDK pour Java 1,1,519

**Nouvelles fonctionnalités**
+ (30 avril 2019) Avec Amazon EMR 5.23.0 et versions ultérieures, vous pouvez lancer un cluster avec trois nœuds principaux pour prendre en charge la haute disponibilité d'applications telles que YARN Resource Manager, HDFS, Spark NameNode, Hive et Ganglia. Le nœud primaire n'est plus un point de défaillance potentiel grâce à cette fonctionnalité. Si l'un des nœuds primaires tombe en panne, Amazon EMR passe automatiquement sur un nœud primaire de secours et remplace le nœud primaire défaillant par un nouveau nœud ayant la même configuration et les mêmes actions de démarrage. Pour plus d'informations, consultez [Planification et configuration des nœuds primaires](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha.html).

**Problèmes connus**
+ Interface utilisateur Tez (corrigée dans la version 5.26.0 d'Amazon EMR)

  L'interface utilisateur de Tez ne fonctionne pas sur un cluster EMR comportant plusieurs nœuds primaires. 
+ Hue (corrigée dans la version 5.24.0 d'Amazon EMR)
  + Hue exécuté sur Amazon EMR ne prend pas en charge Solr. À compter de la version 5.20.0 d'Amazon EMR, un problème de configuration incorrect entraîne l'activation de Solr et un message d'erreur inoffensif semblable au suivant s'affiche :

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Pour empêcher l'affichage du message d'erreur de Solr, procédez comme suit :**

    1. Connectez-vous à la ligne de commande du nœud primaire à l'aide de SSH.

    1. Utilisez un éditeur de texte pour ouvrir le fichier `hue.ini`. Par exemple :

       `sudo vim /etc/hue/conf/hue.ini`

    1. Recherchez le terme `appblacklist` et modifiez la ligne comme suit :

       ```
       appblacklist = search
       ```

    1. Enregistrez vos modifications et redémarrez Hue comme indiqué dans l'exemple suivant :

       ```
       sudo stop hue; sudo start hue
       ```
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.23.0
<a name="emr-5230-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.8.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.7.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.32.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.7.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.9 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.9 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.9 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.9 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.9 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14.1- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14.1- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.215 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.215 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.23.0
<a name="emr-5230-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.23.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.22.0
<a name="emr-5220-release"></a>

## Versions d’application 5.22.0
<a name="emr-5220-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,510 | 1,11,479 | 1,11,479 | 1,11,479 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14.1- -1,4 HBase | 4,14.0- -1,4 HBase | 4,14.0- -1,4 HBase | 4,14.0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.22.0
<a name="emr-5220-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.22.0. Les modifications ont été apportées à la version 5.21.0.

**Important**  
Depuis la version 5.22.0 d'Amazon EMR, Amazon EMR AWS utilise Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Les versions antérieures d'Amazon EMR utilisent la version 2 de AWS Signature dans certains cas, sauf si les notes de publication indiquent que la version 4 de Signature est utilisée exclusivement. Pour plus d'informations, consultez les [sections Authentification des demandes (AWS Signature version 4)](https://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html) et [Authentification des demandes (AWS Signature version 2)](https://docs.aws.amazon.com/AmazonS3/latest/API/auth-request-sig-v2.html) dans le manuel *Amazon Simple Storage Service Developer Guide*.

Date de parution initiale : 20 mars 2019

**Mises à niveau**
+ Flink 1.7.1
+ HBase 1.4.9
+ Oozie 5.1.0
+ Phoenix 4.14.1
+ Zeppelin 0.8.1
+ Connecteurs et pilotes :
  + Connecteur DynamoDB 4.8.0
  + Connecteur MariaDB 2.2.6
  + Pilote JDBC Amazon Redshift version 1.2.20.1043

**Nouvelles fonctionnalités**
+ Modification de la configuration EBS par défaut pour les types d'instances EC2 avec stockage EBS uniquement. Lorsque vous créez un cluster à l'aide d'Amazon EMR version 5.22.0 et versions ultérieures, la quantité de stockage EBS par défaut augmente en fonction de la taille de l'instance. En outre, nous avons fractionné une plus grande quantité de stockage sur plusieurs volumes, afin d'offrir de meilleures performances en termes d'IOPS. Si vous voulez utiliser une autre configuration de stockage d'instance EBS, vous pouvez la spécifier lorsque vous créez un cluster EMR ou ajoutez des nœuds à un cluster existant. Pour plus d'informations sur la quantité de stockage et le nombre de volumes alloués par défaut pour chaque type d'instance, consultez [Stockage EBS par défaut pour les instances](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-storage.html#emr-plan-storage-ebs-storage-default) dans le *Guide de gestion Amazon EMR*.

**Modifications, améliorations et problèmes résolus**
+ Spark
  + Introduction d'une nouvelle propriété de configuration pour Spark sur YARN, `spark.yarn.executor.memoryOverheadFactor`. La valeur de cette propriété est un facteur d'échelle qui définit la valeur de la surcharge mémoire à un pourcentage de la mémoire de l'exécuteur, avec un minimum de 384 Mo. Si la surcharge mémoire est définie explicitement à l'aide `spark.yarn.executor.memoryOverhead`, cette propriété n'a aucun effet. La valeur par défaut est `0.1875`, ce qui représente 18,75 %. Cette valeur par défaut pour Amazon EMR laisse plus d'espace dans les conteneurs YARN pour la surcharge de mémoire de l'exécuteur que la valeur par défaut de 10 % définie en interne par Spark. La valeur par défaut d'Amazon EMR de 18,75 % a montré de façon empirique moins de défaillances liées à la mémoire dans les évaluations comparatives TPC-DS.
  + Rétroportage de [SPARK-26316](https://issues.apache.org/jira/browse/SPARK-26316) pour améliorer les performances.
+ Dans les versions 5.19.0, 5.20.0 et 5.21.0 d'Amazon EMR, les étiquettes des nœuds YARN sont stockées dans un répertoire HDFS. Dans certaines situations, cela entraîne des retards dans le démarrage des nœuds principaux, ce qui provoque le dépassement du délai du cluster et l'échec du lancement. À partir d'Amazon EMR 5.22.0, ce problème est résolu. Les étiquettes des nœuds YARN sont stockées sur le disque local de chaque nœud du cluster, évitant ainsi toute dépendance vis-à-vis du HDFS. 

**Problèmes connus**
+ Hue (corrigée dans la version 5.24.0 d'Amazon EMR)
  + Hue exécuté sur Amazon EMR ne prend pas en charge Solr. À compter de la version 5.20.0 d'Amazon EMR, un problème de configuration incorrect entraîne l'activation de Solr et un message d'erreur inoffensif semblable au suivant s'affiche :

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Pour empêcher l'affichage du message d'erreur de Solr, procédez comme suit :**

    1. Connectez-vous à la ligne de commande du nœud primaire à l'aide de SSH.

    1. Utilisez un éditeur de texte pour ouvrir le fichier `hue.ini`. Par exemple :

       `sudo vim /etc/hue/conf/hue.ini`

    1. Recherchez le terme `appblacklist` et modifiez la ligne comme suit :

       ```
       appblacklist = search
       ```

    1. Enregistrez vos modifications et redémarrez Hue comme indiqué dans l'exemple suivant :

       ```
       sudo stop hue; sudo start hue
       ```
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.22.0
<a name="emr-5220-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.8.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.6.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.31.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.7.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.9 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.9 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.9 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.9 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.9 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14.1- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14.1- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.215 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.215 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.22.0
<a name="emr-5220-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.22.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.21.2
<a name="emr-5212-release"></a>

## Versions d’application 5.21.2
<a name="emr-5212-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,479 | 1,11,479 | 1,11,479 | 1,11,461 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14.0- -1,4 HBase | 4,14.0- -1,4 HBase | 4,14.0- -1,4 HBase | 4,14.0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.21.2
<a name="emr-5212-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.21.2
<a name="emr-5212-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.30.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.7.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.8 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.8 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.8 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.8 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.8 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.215 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.215 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.21.2
<a name="emr-5212-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.21.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.21.1
<a name="emr-5211-release"></a>

## Versions d’application 5.21.1
<a name="emr-5211-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,479 | 1,11,479 | 1,11,461 | 1,11,461 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.214 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.21.1
<a name="emr-5211-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.21.1. Les modifications ont été apportées à la version 5.21.0.

Date de parution initiale : 18 juillet 2019

**Modifications, améliorations et problèmes résolus**
+ Mise à jour de l'AMI Amazon Linux par défaut pour Amazon EMR afin d'inclure d'importantes mises à jour de sécurité du noyau Linux, notamment le problème de déni de service TCP SACK ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

**Problèmes connus**
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.21.1
<a name="emr-5211-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.30.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.7.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.8 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.8 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.8 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.8 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.8 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.215 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.215 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.21.1
<a name="emr-5211-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.21.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.21.0
<a name="emr-5210-release"></a>

## Versions d’application 5.21.0
<a name="emr-5210-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,479 | 1,11,461 | 1,11,461 | 1,1,433 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,4 | 
| Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.214 | 0.214 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.21.0
<a name="emr-5210-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.21.0. Les modifications ont été apportées à la version 5.20.0.

Date de parution initiale : 18 février 2019

Dernière mise à jour : 3 avril 2019

**Mises à niveau**
+ Flink 1.7.0
+ Presto 0.215
+ AWS SDK pour Java 1,11,479

**Nouvelles fonctionnalités**
+ (3 avril 2019) Avec la version 5.21.0 et ultérieures d'Amazon EMR, vous permet de remplacer les configurations de cluster et de spécifier des classifications de configuration supplémentaires pour chaque groupe d'instances dans un cluster en cours d'exécution. Pour ce faire, utilisez la console Amazon EMR, le AWS Command Line Interface (AWS CLI) ou le AWS SDK. Pour plus d'informations, consultez [Fourniture d'une configuration pour un groupe d'instances dans un cluster en cours d'exécution](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

**Modifications, améliorations et problèmes résolus**
+ Zeppelin
  + Rétroportage de [ZEPPELIN-3878](https://issues.apache.org/jira/browse/ZEPPELIN-3878).

**Problèmes connus**
+ Hue (corrigée dans la version 5.24.0 d'Amazon EMR)
  + Hue exécuté sur Amazon EMR ne prend pas en charge Solr. À compter de la version 5.20.0 d'Amazon EMR, un problème de configuration incorrect entraîne l'activation de Solr et un message d'erreur inoffensif semblable au suivant s'affiche :

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Pour empêcher l'affichage du message d'erreur de Solr, procédez comme suit :**

    1. Connectez-vous à la ligne de commande du nœud primaire à l'aide de SSH.

    1. Utilisez un éditeur de texte pour ouvrir le fichier `hue.ini`. Par exemple :

       `sudo vim /etc/hue/conf/hue.ini`

    1. Recherchez le terme `appblacklist` et modifiez la ligne comme suit :

       ```
       appblacklist = search
       ```

    1. Enregistrez vos modifications et redémarrez Hue comme indiqué dans l'exemple suivant :

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez
  + Ce problème a été corrigé dans Amazon EMR 5.22.0.

    Lorsque vous vous connectez à l'interface utilisateur de Tez à l'adresse http : //:8080/tez-ui *MasterDNS* via une connexion SSH au nœud principal du cluster, le message d'erreur « L'opération de l'adaptateur a échoué - Le serveur Timeline (ATS) est hors de portée. Soit il est en panne, soit CORS n'est pas activé » apparaît, ou les tâches affichent de manière inattendue « N/A ».

    Cela est dû au fait que l'interface utilisateur de Tez envoie des demandes à YARN Timeline Server en utilisant `localhost` plutôt que le nom d'hôte du nœud primaire. Pour contourner le problème, un script est disponible pour être exécuté en tant qu'action ou étape d'amorçage. Le script met à jour le nom d'hôte dans le fichier Tez `configs.env`. Pour plus d'informations et pour connaître l'emplacement du script, consultez les [Instructions sur l'amorçage](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/).
+ Dans les versions 5.19.0, 5.20.0 et 5.21.0 d'Amazon EMR, les étiquettes des nœuds YARN sont stockées dans un répertoire HDFS. Dans certaines situations, cela entraîne des retards dans le démarrage des nœuds principaux, ce qui provoque le dépassement du délai du cluster et l'échec du lancement. À partir d'Amazon EMR 5.22.0, ce problème est résolu. Les étiquettes des nœuds YARN sont stockées sur le disque local de chaque nœud du cluster, évitant ainsi toute dépendance vis-à-vis du HDFS. 
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.21.0
<a name="emr-5210-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.11.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.30.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.7.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.8 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.8 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.8 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.8 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.8 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.215 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.215 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.21.0
<a name="emr-5210-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.21.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.20.1
<a name="emr-5201-release"></a>

## Versions d’application 5.20.1
<a name="emr-5201-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,461 | 1,11,461 | 1,1,433 | 1,1,433 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,1,12 | 2,1,12 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.214 | 0.212 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## Notes de mise à jour 5.20.1
<a name="emr-5201-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.20.1
<a name="emr-5201-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.29.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.6.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.8 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.8 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.8 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.8 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.8 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.214 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.214 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.20.1
<a name="emr-5201-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.20.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.20.0
<a name="emr-5200-release"></a>

## Versions d’application 5.20.0
<a name="emr-5200-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,461 | 1,1,433 | 1,1,433 | 1,11,393 | 
| Python | 2,7, 3,6 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,1,12 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.212 | 0.212 | 0.210 | 
| Spark | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 
| Tez | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 

## Notes de mise à jour 5.20.0
<a name="emr-5200-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.20.0. Les modifications ont été apportées à la version 5.19.0.

Date de parution initiale : 18 décembre 2018

Dernière mise à jour : 22 janvier 2019

**Mises à niveau**
+ Flink 1.6.2
+ HBase 1.4.8
+ Hive 2.3.4
+ Hue 4.3.0
+ MXNet 1.3.1
+ Presto 0.214
+ Spark 2.4.0
+ TensorFlow 1,12,0
+ Tez 0.9.1
+ AWS SDK pour Java 1,11,461

**Nouvelles fonctionnalités**
+ (22 janvier 2019) Kerberos dans Amazon EMR a été amélioré pour prendre en charge l'authentification des principaux à partir d'un KDC externe. Cela permet de centraliser la gestion des principaux, car plusieurs clusters peuvent partager un seul KDC externe. De plus, le KDC externe peut avoir une relation d'approbation inter-domaines avec un domaine Active Directory. Cela permet à tous les clusters d'authentifier les mandataires à partir d'Active Directory. Pour plus d'informations, consultez [Utilisation de l'authentification Kerberos](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html) dans le *Guide de gestion Amazon EMR*.

**Modifications, améliorations et problèmes résolus**
+ AMI Amazon Linux par défaut pour Amazon EMR
  + Le package Python3 a été mis à jour de python 3.4 à 3.6.
+ Le valideur EMRFS optimisé pour S3 
  + Le validateur EMRFS optimisé pour S3 est désormais activé par défaut, ce qui améliore les performances d'écriture. Pour de plus amples informations, veuillez consulter [Utilisation d'un valideur EMRFS optimisé pour S3](emr-spark-s3-optimized-committer.md).
+ Hive
  + Rétroportage de [HIVE-16686](https://issues.apache.org/jira/browse/HIVE-16686).
+ Glue avec Spark et Hive
  + Dans EMR 5.20.0 ou version ultérieure, l'élagage parallèle des partitions est activé automatiquement pour Spark et Hive lorsque AWS Glue Data Catalog est utilisé comme métastore. Cette modification réduit considérablement le temps de planification des requêtes en exécutant plusieurs requêtes en parallèle pour récupérer des partitions. Le nombre total de segments pouvant être exécutés simultanément est compris entre 1 et 10. La valeur par défaut est 5, ce qui est recommandé. Vous pouvez le modifier en spécifiant la propriété `aws.glue.partition.num.segments` dans la classification de configuration `hive-site`. En cas de limitation, vous pouvez désactiver la fonctionnalité en remplaçant la valeur par 1. Pour en savoir plus, consultez [Structure d'un segment AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-partitions.html#aws-glue-api-catalog-partitions-Segment).

**Problèmes connus**
+ Hue (corrigée dans la version 5.24.0 d'Amazon EMR)
  + Hue exécuté sur Amazon EMR ne prend pas en charge Solr. À compter de la version 5.20.0 d'Amazon EMR, un problème de configuration incorrect entraîne l'activation de Solr et un message d'erreur inoffensif semblable au suivant s'affiche :

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Pour empêcher l'affichage du message d'erreur de Solr, procédez comme suit :**

    1. Connectez-vous à la ligne de commande du nœud primaire à l'aide de SSH.

    1. Utilisez un éditeur de texte pour ouvrir le fichier `hue.ini`. Par exemple :

       `sudo vim /etc/hue/conf/hue.ini`

    1. Recherchez le terme `appblacklist` et modifiez la ligne comme suit :

       ```
       appblacklist = search
       ```

    1. Enregistrez vos modifications et redémarrez Hue comme indiqué dans l'exemple suivant :

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez
  + Ce problème a été corrigé dans Amazon EMR 5.22.0.

    Lorsque vous vous connectez à l'interface utilisateur de Tez à l'adresse http : //:8080/tez-ui *MasterDNS* via une connexion SSH au nœud principal du cluster, le message d'erreur « L'opération de l'adaptateur a échoué - Le serveur Timeline (ATS) est hors de portée. Soit il est en panne, soit CORS n'est pas activé » apparaît, ou les tâches affichent de manière inattendue « N/A ».

    Cela est dû au fait que l'interface utilisateur de Tez envoie des demandes à YARN Timeline Server en utilisant `localhost` plutôt que le nom d'hôte du nœud primaire. Pour contourner le problème, un script est disponible pour être exécuté en tant qu'action ou étape d'amorçage. Le script met à jour le nom d'hôte dans le fichier Tez `configs.env`. Pour plus d'informations et pour connaître l'emplacement du script, consultez les [Instructions sur l'amorçage](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/).
+ Dans les versions 5.19.0, 5.20.0 et 5.21.0 d'Amazon EMR, les étiquettes des nœuds YARN sont stockées dans un répertoire HDFS. Dans certaines situations, cela entraîne des retards dans le démarrage des nœuds principaux, ce qui provoque le dépassement du délai du cluster et l'échec du lancement. À partir d'Amazon EMR 5.22.0, ce problème est résolu. Les étiquettes des nœuds YARN sont stockées sur le disque local de chaque nœud du cluster, évitant ainsi toute dépendance vis-à-vis du HDFS. 
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 5.20.0
<a name="emr-5200-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.2.0 | Connecteur S3Select EMR | 
| emrfs | 2.29.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.6.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.8 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.8 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.8 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.8 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.8 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.4-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.4-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.4-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.4-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.3.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.214 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.214 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.12.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.20.0
<a name="emr-5200-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.20.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.19.1
<a name="emr-5191-release"></a>

## Versions d’application 5.19.1
<a name="emr-5191-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,433 | 1,1,433 | 1,11,393 | 1,11,393 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.212 | 0.210 | 0.210 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.19.1
<a name="emr-5191-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.19.1
<a name="emr-5191-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.1.0 | Connecteur S3Select EMR | 
| emrfs | 2.28.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.6.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.7 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.7 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.7 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.7 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.7 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.212 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.212 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.19.1
<a name="emr-5191-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.19.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.19.0
<a name="emr-5190-release"></a>

## Versions d’application 5.19.0
<a name="emr-5190-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,433 | 1,11,393 | 1,11,393 | 1,1336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.210 | 0.210 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 
| ZooKeeper | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.19.0
<a name="emr-5190-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.19.0. Les modifications ont été apportées à la version 5.18.0.

Date de parution initiale : 7 novembre 2018

Date de la dernière mise à jour : 19 novembre 2018

**Mises à niveau**
+ Hadoop 2.8.5
+ Flink 1.6.1
+ JupyterHub 0,9.4
+ MXNet 1.3.0
+ Presto 0.212
+ TensorFlow 1,11,0
+ Zookeeper 3.4.13
+ AWS SDK pour Java 1,1,433

**Nouvelles fonctionnalités**
+ (19 novembre 2018) Blocs-notes EMR est un environnement géré basé sur le bloc-notes Jupyter. Il prend en charge les noyaux magiques Spark pour PySpark Spark SQL, Spark R et Scala. Blocs-notes EMR peut être utilisé avec des clusters créés à l'aide de la version 5.18.0 d'Amazon EMR ou d'une version ultérieure. Pour plus d'informations, consultez [Utilisation de Blocs-notes EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks.html) dans le *Guide de gestion d'Amazon EMR*.
+ Le validateur EMRFS optimisé pour S3 est disponible lors de l'écriture de fichiers Parquet avec Spark et EMRFS. Ce validateur améliore les performances d'écriture. Pour de plus amples informations, veuillez consulter [Utilisation d'un valideur EMRFS optimisé pour S3](emr-spark-s3-optimized-committer.md).

**Modifications, améliorations et problèmes résolus**
+ YARN
  + Modification de la logique qui limite le processus principal de l'application à l'exécution sur les nœuds principaux. Cette fonctionnalité utilise désormais la fonctionnalité et les propriétés des étiquettes de nœuds YARN dans les classifications de configuration `yarn-site` et `capacity-scheduler`. Pour plus d’informations, consultez [https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.)
+ AMI Amazon Linux par défaut pour Amazon EMR
  + `ruby18`, `php56` et `gcc48` ne sont plus installés par défaut. Ils peuvent être installés si vous le souhaitez à l'aide de `yum`.
  + Le gem ruby aws-sdk n'est plus installé par défaut. Il peut être installé en utilisant `gem install aws-sdk`, si vous le souhaitez. Des composants spécifiques peuvent également être installés. Par exemple, `gem install aws-sdk-s3`.

**Problèmes connus**
+ **Blocs-notes EMR** – Dans certains cas, lorsque plusieurs éditeurs de blocs-notes sont ouverts, l'éditeur de bloc-notes peut sembler incapable de se connecter au cluster. Dans ce cas, effacez les cookies du navigateur, puis rouvrez les éditeurs de bloc-notes.
+ **CloudWatch ContainerPending Mise à l'échelle métrique et automatique** — (Corrigé dans la version 5.20.0) Amazon EMR peut émettre une valeur négative pour. `ContainerPending` Si `ContainerPending` est utilisée dans une règle de mise à l'échelle automatique, la mise à l'échelle automatique ne se comporte pas comme prévu. Évitez d'utiliser `ContainerPending` avec la mise à l'échelle automatique.
+ Dans les versions 5.19.0, 5.20.0 et 5.21.0 d'Amazon EMR, les étiquettes des nœuds YARN sont stockées dans un répertoire HDFS. Dans certaines situations, cela entraîne des retards dans le démarrage des nœuds principaux, ce qui provoque le dépassement du délai du cluster et l'échec du lancement. À partir d'Amazon EMR 5.22.0, ce problème est résolu. Les étiquettes des nœuds YARN sont stockées sur le disque local de chaque nœud du cluster, évitant ainsi toute dépendance vis-à-vis du HDFS. 

## Versions des composants 5.19.0
<a name="emr-5190-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.7.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.1 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.1.0 | Connecteur S3Select EMR | 
| emrfs | 2.28.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.6.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.5-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.5-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.7 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.7 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.7 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.7 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.7 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.9.4 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.3.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.212 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.212 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.13 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.13 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.19.0
<a name="emr-5190-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.19.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.18.1
<a name="emr-5181-release"></a>

## Versions d’application 5.18.1
<a name="emr-5181-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,393 | 1,11,393 | 1,1336 | 1,1336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.210 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.18.1
<a name="emr-5181-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.18.1
<a name="emr-5181-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.1.0 | Connecteur S3Select EMR | 
| emrfs | 2.27.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.6.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.7 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.7 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.7 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.7 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.7 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.210 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.210 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.9.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.18.1
<a name="emr-5181-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.18.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.18.0
<a name="emr-5180-release"></a>

## Versions d’application 5.18.0
<a name="emr-5180-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,393 | 1,1336 | 1,1336 | 1,1336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.206 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.18.0
<a name="emr-5180-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.18.0. Les modifications ont été apportées à la version 5.17.0.

Date de parution initiale : 24 octobre 2018

**Mises à niveau**
+ Flink 1.6.0
+ HBase 1.4.7
+ Presto 0.210
+ Spark 2.3.2
+ Zeppelin 0.8.0

**Nouvelles fonctionnalités**
+ À partir d'Amazon EMR 5.18.0, vous pouvez utiliser le référentiel d'artefacts d'Amazon EMR pour générer le code de votre tâche en fonction des versions exactes des bibliothèques et des dépendances qui sont disponibles avec des versions spécifiques d'Amazon EMR. Pour de plus amples informations, veuillez consulter [Vérification des dépendances à l'aide du référentiel d'artefacts d'Amazon EMR](emr-artifact-repository.md).

**Modifications, améliorations et problèmes résolus**
+ Hive
  + Ajout de la prise en charge de S3 Select. Pour de plus amples informations, veuillez consulter [Utilisation de S3 Select avec Hive pour améliorer les performances](emr-hive-s3select.md).
+ Presto
  + Ajout de la prise en charge de [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/) Pushdown. Pour de plus amples informations, veuillez consulter [Utilisation de S3 Select Pushdown avec Presto pour améliorer les performances](emr-presto-s3select.md).
+ Spark
  + La configuration par défaut de log4j pour Spark a été modifiée pour enregistrer les journaux des conteneurs toutes les heures pour les tâches de streaming Spark. Cela permet d'éviter la suppression des journaux pour les tâches de streaming Spark de longue durée.

## Versions des composants 5.18.0
<a name="emr-5180-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.1.0 | Connecteur S3Select EMR | 
| emrfs | 2.27.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.6.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.7 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.7 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.7 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.7 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.7 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.210 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.210 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.9.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.8.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.18.0
<a name="emr-5180-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.18.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.17.2
<a name="emr-5172-release"></a>

## Versions d’application 5.17.2
<a name="emr-5172-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1336 | 1,1336 | 1,1336 | 1,1336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.206 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.17.2
<a name="emr-5172-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.17.2
<a name="emr-5172-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.0.0 | Connecteur S3Select EMR | 
| emrfs | 2.26.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.5.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.6 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.6 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.6 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.6 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.6 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.206 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.206 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.9.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.17.2
<a name="emr-5172-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.17.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.17.1
<a name="emr-5171-release"></a>

## Versions d’application 5.17.1
<a name="emr-5171-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1336 | 1,1336 | 1,1336 | 1,1336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.203 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.17.1
<a name="emr-5171-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.17.1. Les modifications ont été apportées à la version 5.17.0.

Date de parution initiale : 18 juillet 2019

**Modifications, améliorations et problèmes résolus**
+ Mise à jour de l'AMI Amazon Linux par défaut pour Amazon EMR afin d'inclure d'importantes mises à jour de sécurité du noyau Linux, notamment le problème de déni de service TCP SACK ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

## Versions des composants 5.17.1
<a name="emr-5171-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.0.0 | Connecteur S3Select EMR | 
| emrfs | 2.26.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.5.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.6 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.6 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.6 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.6 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.6 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.206 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.206 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.9.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.17.1
<a name="emr-5171-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.17.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.17.0
<a name="emr-5170-release"></a>

## Versions d’application 5.17.0
<a name="emr-5170-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1336 | 1,1336 | 1,1336 | 1,1333 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.203 | 0.203 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.17.0
<a name="emr-5170-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.17.0. Les modifications ont été apportées à la version 5.16.0.

Date de parution initiale : 30 août 2018

**Mises à niveau**
+ Flink 1.5.2
+ HBase 1.4.6
+ Presto 0.206

**Nouvelles fonctionnalités**
+ Ajout de la prise en charge de Tensorflow. Pour de plus amples informations, veuillez consulter [TensorFlow](emr-tensorflow.md).

**Modifications, améliorations et problèmes résolus**
+ JupyterHub
  + Ajout de la prise en charge de la persistance des blocs-notes dans Amazon S3. Pour de plus amples informations, veuillez consulter [Configuration de la persistance pour les blocs-notes dans Amazon S3](emr-jupyterhub-s3.md).
+ Spark
  + Ajout de la prise en charge de [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/). Pour de plus amples informations, veuillez consulter [Utilisation de S3 Select avec Spark pour améliorer les performances des requêtes](emr-spark-s3select.md).
+ Résolution des problèmes liés aux métriques Cloudwatch et à la fonctionnalité de mise à l'échelle automatique dans Amazon EMR version 5.14.0, 5.15.0 ou 5.16.0. 

**Problèmes connus**
+ Lorsque vous créez un cluster activé pour Kerberos avec Livy installé, Livy échoue avec un message d'erreur indiquant que l'authentification simple n'est pas activée. Le redémarrage du serveur Livy résout le problème. Pour contourner le problème, ajoutez une étape lors de la création du cluster qui exécute `sudo restart livy-server` sur le nœud primaire.
+ Si vous utilisez une AMI Amazon Linux personnalisée basée sur une AMI Amazon Linux dont la date de création est le 11/08/2018, le serveur Oozie ne démarre pas. Si vous utilisez Oozie, créez une AMI personnalisée basée sur un ID d'AMI Amazon Linux avec une date de création différente. Vous pouvez utiliser la AWS CLI commande suivante pour renvoyer une liste d'images IDs pour tous les HVM Amazon Linux AMIs avec une version 2018.03, ainsi que la date de sortie, afin de pouvoir choisir une AMI Amazon Linux appropriée comme base. MyRegion Remplacez-le par l'identifiant de votre région, tel que us-west-2.

  ```
  aws ec2 --region MyRegion describe-images --owner amazon --query 'Images[?Name!=`null`]|[?starts_with(Name, `amzn-ami-hvm-2018.03`) == `true`].[CreationDate,ImageId,Name]' --output text | sort -rk1
  ```

## Versions des composants 5.17.0
<a name="emr-5170-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.0.0 | Connecteur S3Select EMR | 
| emrfs | 2.26.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.5.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.6 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.6 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.6 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.6 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.6 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.206 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.206 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 1.9.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.17.0
<a name="emr-5170-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.17.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.16.1
<a name="emr-5161-release"></a>

## Versions d’application 5.16.1
<a name="emr-5161-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1336 | 1,1336 | 1,1333 | 1,1333 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,14,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.203 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## Notes de mise à jour 5.16.1
<a name="emr-5161-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.16.1
<a name="emr-5161-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.25.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.5.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.4 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.4 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.4 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.4 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.4 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.203 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.203 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.16.1
<a name="emr-5161-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.16.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.16.0
<a name="emr-5160-release"></a>

## Versions d’application 5.16.0
<a name="emr-5160-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1336 | 1,1333 | 1,1333 | 1,11,297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 

## Notes de mise à jour 5.16.0
<a name="emr-5160-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.16.0. Les modifications ont été apportées à la version 5.15.0.

Date de parution initiale : 19 juillet 2018

**Mises à niveau**
+ Hadoop 2.8.4
+ Flink 1.5.0
+ Livy 0.5.0
+ MXNet 1.2.0
+ Phoenix 4.14.0
+ Presto 0.203
+ Spark 2.3.1
+ AWS SDK pour Java 1,1336
+ CUDA 9.2
+ Pilote JDBC Redshift 1.2.15.1025

**Modifications, améliorations et problèmes résolus**
+ HBase
  + Rétroportage de [HBASE-20723](https://issues.apache.org/jira/browse/HBASE-20723).
+ Presto
  + Modifications de configuration pour prendre en charge l'authentification LDAP. Pour de plus amples informations, veuillez consulter [Utilisation de l'authentification LDAP pour Presto sur Amazon EMR](emr-presto-ldap.md).
+ Spark
  + Apache Spark version 2.3.1, disponible à partir de la version 5.16.0 d'Amazon EMR, corrige [CVE-2018-8024](https://nvd.nist.gov/vuln/detail/CVE-2018-8024) et [CVE-2018-1334](https://nvd.nist.gov/vuln/detail/CVE-2018-1334). Nous vous recommandons de migrer les versions antérieures de Spark vers la version 2.3.1 ou ultérieure.

**Problèmes connus**
+ Cette version ne prend pas en charge les types d'instance c1.medium ou m1.small. Les clusters utilisant l'un ou l'autre de ces types d'instances ne démarrent pas. Pour contourner le problème, spécifiez un type d'instance différent ou utilisez une version différente.
+ Lorsque vous créez un cluster activé pour Kerberos avec Livy installé, Livy échoue avec un message d'erreur indiquant que l'authentification simple n'est pas activée. Le redémarrage du serveur Livy résout le problème. Pour contourner le problème, ajoutez une étape lors de la création du cluster qui exécute `sudo restart livy-server` sur le nœud primaire.
+ Après le redémarrage du nœud principal ou le redémarrage du contrôleur d'instance, les CloudWatch métriques ne seront pas collectées et la fonctionnalité de dimensionnement automatique ne sera pas disponible dans les versions 5.14.0, 5.15.0 ou 5.16.0 d'Amazon EMR. Ce problème est résolu dans Amazon EMR 5.17.0. 

## Versions des composants 5.16.0
<a name="emr-5160-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.6.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.25.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.5.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.4-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.4-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.4 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.4 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.4 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.4 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.4 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.5.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.2.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,14,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,14,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.203 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.203 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.16.0
<a name="emr-5160-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.16.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.15.1
<a name="emr-5151-release"></a>

## Versions d’application 5.15.1
<a name="emr-5151-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1333 | 1,1333 | 1,11,297 | 1,11,297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.15.1
<a name="emr-5151-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.15.1
<a name="emr-5151-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.24.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.4 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.4 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.4 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.4 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.4 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.1.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.15.1
<a name="emr-5151-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.15.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.15.0
<a name="emr-5150-release"></a>

## Versions d’application 5.15.0
<a name="emr-5150-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1333 | 1,11,297 | 1,11,297 | 1,11,297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.15.0
<a name="emr-5150-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.15.0. Les modifications ont été apportées à la version 5.14.0.

Date de parution initiale : 21 juin 2018

**Mises à niveau**
+ Mise à niveau HBase vers la version 1.4.4
+ Mise à niveau de Hive vers la version 2.3.3
+ Mise à niveau de Hue vers la version 4.2.0
+ Mise à niveau d'Oozie vers la version 5.0.0
+ Mise à niveau de Zookeeper vers la version 3.4.12
+  AWS SDK mis à jour vers la version 1.11.333

**Modifications, améliorations et problèmes résolus**
+ Hive
  + Rétroportage de [HIVE-18069](https://issues.apache.org/jira/browse/HIVE-18069).
+ Hue
  + Hue a été mis à jour pour s'authentifier correctement auprès de Livy lorsque Kerberos est activé. Livy est désormais pris en charge lors de l'utilisation de Kerberos avec Amazon EMR.
+ JupyterHub
  + Mis à jour JupyterHub afin qu'Amazon EMR installe les bibliothèques clientes LDAP par défaut.
  + Correction d'une erreur dans le script qui génère des certificats auto-signés. 

**Problèmes connus**
+ Cette version ne prend pas en charge les types d'instance c1.medium ou m1.small. Les clusters utilisant l'un ou l'autre de ces types d'instances ne démarrent pas. Pour contourner le problème, spécifiez un type d'instance différent ou utilisez une version différente.
+ Après le redémarrage du nœud principal ou le redémarrage du contrôleur d'instance, les CloudWatch métriques ne seront pas collectées et la fonctionnalité de dimensionnement automatique ne sera pas disponible dans les versions 5.14.0, 5.15.0 ou 5.16.0 d'Amazon EMR. Ce problème est résolu dans Amazon EMR 5.17.0. 

## Versions des composants 5.15.0
<a name="emr-5150-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.24.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.4 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.4 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.4 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.4 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.4 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.3-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.3-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.3-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.3-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.3-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.3-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.2.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.1.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.0.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.0.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.12 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.12 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.15.0
<a name="emr-5150-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.15.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.14.2
<a name="emr-5142-release"></a>

## Versions d’application 5.14.2
<a name="emr-5142-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,297 | 1,11,297 | 1,11,297 | 1,11,297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.14.2
<a name="emr-5142-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.14.2
<a name="emr-5142-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.23.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.1.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.14.2
<a name="emr-5142-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.14.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.14.1
<a name="emr-5141-release"></a>

## Versions d’application 5.14.1
<a name="emr-5141-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,297 | 1,11,297 | 1,11,297 | 1,11,297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.14.1
<a name="emr-5141-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.14.1. Les modifications ont été apportées à la version 5.14.0.

Date de parution initiale : 17 octobre 2018

Mise à jour de l'AMI par défaut pour Amazon EMR afin de corriger les vulnérabilités de sécurité potentielles.

## Versions des composants 5.14.1
<a name="emr-5141-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.23.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.1.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.14.1
<a name="emr-5141-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.14.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.14.0
<a name="emr-5140-release"></a>

## Versions d’application 5.14.0
<a name="emr-5140-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,297 | 1,11,297 | 1,11,297 | 1,11,267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 
| Sqoop | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.14.0
<a name="emr-5140-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.14.0. Les modifications ont été apportées à la version 5.13.0.

Date de parution initiale : 4 juin 2018

**Mises à niveau**
+ Mise à niveau d'Apache Flink vers la version 1.4.2
+ Mise à niveau d'Apache MXnet vers la version 1.1.0
+ Mise à niveau d'Apache Sqoop vers la version 1.4.7

**Nouvelles fonctionnalités**
+  JupyterHub Support ajouté. Pour de plus amples informations, veuillez consulter [JupyterHub](emr-jupyterhub.md).

**Modifications, améliorations et problèmes résolus**
+ EMRFS
  + La chaîne userAgent dans les demandes adressées à Amazon S3 a été mise à jour pour contenir les informations relatives à l'utilisateur et au groupe du principal invoquant. Cela peut être utilisé avec AWS CloudTrail les journaux pour un suivi plus complet des demandes.
+ HBase
  +  Inclusion de [HBASE-20447](https://issues.apache.org/jira/browse/HBASE-20447), qui corrige un problème qui pouvait causer des problèmes de cache, en particulier avec les régions divisées. 
+ MXnet
  + Ajout des bibliothèques OpenCV.
+ Spark
  + Lorsque Spark écrit des fichiers Parquet sur un emplacement Amazon S3 à l'aide d'EMRFS, l' FileOutputCommitter algorithme a été mis à jour pour utiliser la version 2 au lieu de la version 1. Cela réduit le nombre de renommages, ce qui améliore les performances de l'application. Cette modification n'affecte pas : 
    + Les applications autres que Spark. 
    + Applications qui écrivent sur d'autres systèmes de fichiers, tels que HDFS (qui utilise toujours la version 1 de FileOutputCommitter).
    + Les applications utilisant d'autres formats de sortie, tels que le texte ou le csv, qui utilisent déjà l'écriture directe EMRFS.

**Problèmes connus**
+ JupyterHub
  + L'utilisation de classifications de configuration pour configurer JupyterHub des blocs-notes Jupyter individuels lors de la création d'un cluster n'est pas prise en charge. Modifiez manuellement le fichier jupyterhub\$1config.py et les fichiers jupyter\$1notebook\$1config.py pour chaque utilisateur. Pour de plus amples informations, veuillez consulter [Configuration JupyterHub](emr-jupyterhub-configure.md).
  + JupyterHub ne démarre pas sur des clusters au sein d'un sous-réseau privé, ce qui entraîne un échec du message`Error: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt' `. Ce problème est dû à une erreur dans le script qui génère des certificats auto-signés. Utilisez la solution suivante pour générer des certificats auto-signés. Toutes les commandes sont exécutées lorsque vous êtes connecté au nœud primaire.

    1. Copiez le script de génération de certificat du conteneur vers le nœud primaire :

       ```
       sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
       ```

    1. Utilisez un éditeur de texte pour modifier la ligne 23 afin de changer le nom d'hôte public en nom d'hôte local, comme indiqué ci-dessous :

       ```
       local hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local-hostname)
       ```

    1. Exécutez le script pour générer des certificats auto-signés :

       ```
       sudo bash ./gen_self_signed_cert.sh
       ```

    1. Déplacez les fichiers de certificat générés par le script vers le répertoire `/etc/jupyter/conf/` :

       ```
       sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/
       ```

    Vous pouvez vérifier que `tail` le `jupyter.log` fichier JupyterHub a redémarré et qu'il renvoie un code de réponse 200. Par exemple :

    ```
    tail -f /var/log/jupyter/jupyter.log
    ```

    Vous devriez obtenir une réponse similaire à la suivante :

    ```
    # [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/
    # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
    ```
+ Après le redémarrage du nœud principal ou le redémarrage du contrôleur d'instance, les CloudWatch métriques ne seront pas collectées et la fonctionnalité de dimensionnement automatique ne sera pas disponible dans les versions 5.14.0, 5.15.0 ou 5.16.0 d'Amazon EMR. Ce problème est résolu dans Amazon EMR 5.17.0. 

## Versions des composants 5.14.0
<a name="emr-5140-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.23.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 0.8.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.1.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.14.0
<a name="emr-5140-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.14.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.13.1
<a name="emr-5131-release"></a>

## Versions d’application 5.13.1
<a name="emr-5131-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,297 | 1,11,297 | 1,11,267 | 1,11,267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2,11.8 | 2,11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.13.1
<a name="emr-5131-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.13.1
<a name="emr-5131-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.22.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.0.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.13.1
<a name="emr-5131-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.13.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.13.0
<a name="emr-5130-release"></a>

## Versions d’application 5.13.0
<a name="emr-5130-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,297 | 1,11,267 | 1,11,267 | 1,11,267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.13.0
<a name="emr-5130-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.13.0. Les modifications ont été apportées à la version 5.12.0.

**Mises à niveau**
+ Mise à niveau de Spark vers la version 2.3.0
+ Mise à niveau HBase vers la version 1.4.2
+ Mise à niveau vers de Presto vers la version 0.194
+ Mise à niveau AWS SDK pour Java vers la version 1.11.297

**Modifications, améliorations et problèmes résolus**
+ Hive
  + Rétroportage de [HIVE-15436](https://issues.apache.org/jira/browse/HIVE-15436). Hive améliorée pour ne APIs renvoyer que les vues.

**Problèmes connus**
+ MXNet ne possède actuellement pas de bibliothèques OpenCV.

## Versions des composants 5.13.0
<a name="emr-5130-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.10.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.22.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.0.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.194 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.194 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.1 | Projet R pour les calculs statistiques | 
| spark-client | 2.3.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.3.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.3.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.3.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.13.0
<a name="emr-5130-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.13.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.12.3
<a name="emr-5123-release"></a>

## Versions d’application 5.12.3
<a name="emr-5123-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,267 | 1,11,267 | 1,11,267 | 1,11,267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.12.3
<a name="emr-5123-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.12.3
<a name="emr-5123-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.9.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.21.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.0.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.188 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.188 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.12.3
<a name="emr-5123-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.12.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.12.2
<a name="emr-5122-release"></a>

## Versions d’application 5.12.2
<a name="emr-5122-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,267 | 1,11,267 | 1,11,267 | 1,11,238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.12.2
<a name="emr-5122-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.12.2. Les modifications ont été apportées à la version 5.12.1.

Date de parution initiale : 29 août 2018

**Modifications, améliorations et problèmes résolus**
+ Cette version corrige une vulnérabilité de sécurité potentielle.

## Versions des composants 5.12.2
<a name="emr-5122-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.9.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.21.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.0.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.188 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.188 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.12.2
<a name="emr-5122-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.12.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.12.1
<a name="emr-5121-release"></a>

## Versions d’application 5.12.1
<a name="emr-5121-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,267 | 1,11,267 | 1,11,238 | 1,11,238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.12.1
<a name="emr-5121-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.12.1. Les modifications ont été apportées à la version 5.12.0.

Date de parution initiale : 29 mars 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités potentielles.

## Versions des composants 5.12.1
<a name="emr-5121-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.9.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.21.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.0.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.188 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.188 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.12.1
<a name="emr-5121-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.12.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.12.0
<a name="emr-5120-release"></a>

## Versions d’application 5.12.0
<a name="emr-5120-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,267 | 1,11,238 | 1,11,238 | 1,11,238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.12.0
<a name="emr-5120-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.12.0. Les modifications ont été apportées à la version 5.11.1.

**Mises à niveau**
+ AWS SDK pour Java 1.11.238 ⇒ 1.11.267. Pour plus d'informations, consultez le [AWS SDK for Java Change](https://github.com/aws/aws-sdk-java/blob/master/CHANGELOG.md) Log GitHub on.
+ Hadoop 2.7.3 ⇒ 2.8.3. Pour plus d'informations, consultez [Versions d'Apache Hadoop](http://hadoop.apache.org/releases.html).
+ Flink 1.3.2 ⇒ 1.4.0. Pour plus d'informations, consultez [Annonce de publication d'Apache Flink 1.4.0](https://flink.apache.org/news/2017/12/12/release-1.4.0.html).
+ HBase 1.3.1 ⇒ 1.4.0. Pour plus d'informations, consultez l'[annonce HBase de sortie](http://mail-archives.apache.org/mod_mbox/www-announce/201712.mbox/%3CCA+RK=_AU+tB=7SU1HRbeKVEd-sKA5WcJo3oa43vQ6PMB3L9pgQ@mail.gmail.com%3E).
+ Hue 4.0.1 ⇒ 4.1.0. Pour plus d'informations, veuillez consulter les [Notes de mise à jour](https://docs.gethue.com/releases/release-notes-4.10.0/).
+ MxNet 0,12,0 ⇒ 10,0. Pour plus d'informations, consultez la section [MXNet Change Log](https://github.com/apache/incubator-mxnet/releases/tag/1.0.0) on GitHub.
+ Presto 0.187 ⇒ 0.188. Pour plus d'informations, veuillez consulter les [Notes de mise à jour](https://prestodb.io/docs/current/release/release-0.188.html).

**Modifications, améliorations et problèmes résolus**
+ **Hadoop**
  + La propriété `yarn.resourcemanager.decommissioning.timeout` a été remplacée par `yarn.resourcemanager.nodemanager-graceful-decommission-timeout-secs`. Vous pouvez utiliser cette propriété pour personnaliser la réduction de la taille du cluster. Pour plus d'informations, consultez [Réduction de la taille des clusters](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html) dans le *Guide de gestion Amazon EMR*.
  + La CLI Hadoop a ajouté l'option `-d` à la commande `cp` (copy), qui spécifie la copie directe. Vous pouvez l'utiliser pour éviter de créer un fichier `.COPYING` intermédiaire, ce qui accélère la copie de données entre Amazon S3. Pour plus d'informations, consultez [HADOOP-12384](https://issues.apache.org/jira/browse/HADOOP-12384).
+ **Pig**
  + Ajout de la classification de configuration `pig-env`, qui simplifie la configuration des propriétés de l'environnement Pig. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).
+ **Presto**
  + Ajout de la classification de configuration, `presto-connector-redshift` que vous pouvez utiliser pour configurer des valeurs dans le fichier de configuration `redshift.properties` de Presto. Pour plus d'informations, consultez [Connecteur Redshift](https://prestodb.io/docs/current/connector/redshift.html) dans la documentation Presto, et [Configuration des applications](emr-configure-apps.md).
  + La prise en charge de Presto pour EMRFS a été ajoutée et constitue la configuration par défaut. Les versions précédentes d'Amazon EMR utilisaient PrestOS3FileSystem, qui était la seule option. Pour de plus amples informations, veuillez consulter [Configuration d'EMRFS et de PrestOS3 FileSystem](emr-presto-considerations.md#emr-presto-prestos3).
**Note**  
Si vous interrogez des données sous-jacentes dans Amazon S3 avec Amazon EMR version 5.12.0, des erreurs Presto peuvent se produire. Cela est dû au fait que Presto ne parvient pas à récupérer les valeurs de classification de configuration depuis `emrfs-site.xml`. Pour contourner le problème, créez un sous-répertoire `emrfs` sous `usr/lib/presto/plugin/hive-hadoop2/` et un lien symbolique dans `usr/lib/presto/plugin/hive-hadoop2/emrfs` vers le fichier `/usr/share/aws/emr/emrfs/conf/emrfs-site.xml` existant. Redémarrez ensuite le processus presto-server (`sudo presto-server stop` suivi de `sudo presto-server start`).
+ **Spark**
  + [SPARK-22036 rétroporté : la BigDecimal multiplication](https://issues.apache.org/jira/browse/SPARK-22036) renvoie parfois la valeur nulle.

**Problèmes connus**
+ MXNet n'inclut pas les bibliothèques OpenCV.
+ SparkR n'est pas disponible pour les clusters créés à l'aide d'une AMI personnalisée car R n'est pas installé par défaut sur les nœuds du cluster.

## Versions des composants 5.12.0
<a name="emr-5120-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.9.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.21.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.4.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.8.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.4.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.4.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.4.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.4.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.4.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.1.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 1.0.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.1.85 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,13,0- -1,4 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.188 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.188 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.12.0
<a name="emr-5120-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.12.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.11.4
<a name="emr-5114-release"></a>

## Versions d’application 5.11.4
<a name="emr-5114-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,238 | 1,11,238 | 1,11,238 | 1,11,238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.11.4
<a name="emr-5114-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.11.4
<a name="emr-5114-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.8.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.11.4
<a name="emr-5114-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.11.4**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.11.3
<a name="emr-5113-release"></a>

## Versions d’application 5.11.3
<a name="emr-5113-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,238 | 1,11,238 | 1,11,238 | 1,11,238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.11.3
<a name="emr-5113-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.11.3. Les modifications ont été apportées à la version 5.11.2.

Date de parution initiale : 18 juillet 2019

**Modifications, améliorations et problèmes résolus**
+ Mise à jour de l'AMI Amazon Linux par défaut pour Amazon EMR afin d'inclure d'importantes mises à jour de sécurité du noyau Linux, notamment le problème de déni de service TCP SACK ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

## Versions des composants 5.11.3
<a name="emr-5113-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.8.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.11.3
<a name="emr-5113-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.11.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.11.2
<a name="emr-5112-release"></a>

## Versions d’application 5.11.2
<a name="emr-5112-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,238 | 1,11,238 | 1,11,238 | 1,11,221 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.11.2
<a name="emr-5112-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.11.2. Les modifications ont été apportées à la version 5.11.1.

Date de parution initiale : 29 août 2018

**Modifications, améliorations et problèmes résolus**
+ Cette version corrige une vulnérabilité de sécurité potentielle.

## Versions des composants 5.11.2
<a name="emr-5112-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.8.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.11.2
<a name="emr-5112-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.11.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.11.1
<a name="emr-5111-release"></a>

## Versions d’application 5.11.1
<a name="emr-5111-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,238 | 1,11,238 | 1,11,221 | 1,11,221 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.11.1
<a name="emr-5111-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.11.1. Il s'agit des modifications apportées à la version Amazon EMR 5.8.0.

Date de parution initiale : 22 janvier 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités associées à l'exécution spéculative (CVE-2017-5715, CVE-2017-5753 et CVE-2017-5754). Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## Versions des composants 5.11.1
<a name="emr-5111-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.8.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.11.1
<a name="emr-5111-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.11.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.11.0
<a name="emr-5110-release"></a>

## Versions d’application 5.11.0
<a name="emr-5110-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,238 | 1,11,221 | 1,11,221 | 1,11,1183 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 
| Hive | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.184 | 
| Spark | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.11.0
<a name="emr-5110-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.11.0. Les modifications ont été apportées à la version 5.10.0.

**Mises à niveau**
+ Hive 2.3.2
+ Spark 2.2.1
+ Kit SDK pour Java 1.11.238

**Nouvelles fonctionnalités**
+ Spark
  + Ajout du paramètre `spark.decommissioning.timeout.threshold`, qui améliore le comportement de mise hors service de Spark lors de l'utilisation d'instances Spot. Pour de plus amples informations, veuillez consulter [Configuration du comportement de mise hors service du nœud](emr-spark-configure.md#spark-decommissioning).
  + Ajout du `aws-sagemaker-spark-sdk` composant à Spark, qui installe Amazon SageMaker Spark et les dépendances associées pour l'intégration de Spark à [Amazon SageMaker](https://aws.amazon.com/sagemaker/). Vous pouvez utiliser Amazon SageMaker Spark pour créer des pipelines d'apprentissage automatique (ML) Spark à l'aide d'Amazon SageMaker Stages. Pour plus d'informations, consultez le [fichier Readme de SageMaker Spark](https://github.com/aws/sagemaker-spark/blob/master/README.md) sur GitHub et son [utilisation d'Apache Spark avec Amazon SageMaker](https://docs.aws.amazon.com/sagemaker/latest/dg/apache-spark.html) dans le manuel *Amazon SageMaker Developer Guide*.

**Problèmes connus**
+ MXNet n'inclut pas les bibliothèques OpenCV.
+ Hive 2.3.2 définit `hive.compute.query.using.stats=true` par défaut. Cela entraîne des requêtes pour obtenir des données à partir de statistiques existantes plutôt que directement à partir des données, ce qui peut être déroutant. Par exemple, si vous avez une table avec `hive.compute.query.using.stats=true` et que vous téléchargez de nouveaux fichiers vers la table `LOCATION`, l'exécution d'une demande `SELECT COUNT(*)` sur la table renvoie le nombre des statistiques, plutôt que de récupérer les lignes ajoutées.

  Pour contourner ce problème, utilisez la commande `ANALYZE TABLE` pour collecter de nouvelles statistiques, ou définissez `hive.compute.query.using.stats=false`. Pour en savoir plus, consultez [Statistiques dans Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) dans la documentation Apache Hive.

## Versions des composants 5.11.0
<a name="emr-5110-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.8.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.11.0
<a name="emr-5110-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.11.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.10.1
<a name="emr-5101-release"></a>

## Versions d’application 5.10.1
<a name="emr-5101-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,221 | 1,11,221 | 1,11,1183 | 1,11,1183 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 
| Hive | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.184 | 0.184 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.10.1
<a name="emr-5101-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.10.1
<a name="emr-5101-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.7.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | Service au niveau du nœud HDFS pour stocker les blocs. | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.10.1
<a name="emr-5101-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.10.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.10.0
<a name="emr-5100-release"></a>

## Versions d’application 5.10.0
<a name="emr-5100-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,221 | 1,11,1183 | 1,11,1183 | 1,1,1160 | 
| Python | 2,7, 3,4 | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 
| Hive | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  | 
| MXNet | 0.12.0 |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 
| Presto | 0.187 | 0.184 | 0.184 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.10.0
<a name="emr-5100-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.10.0. Il s'agit des modifications apportées à la version Amazon EMR 5.9.0.

**Mises à niveau**
+ AWS SDK pour Java 1,11,221
+ Hive 2.3.1
+ Presto 0.187

**Nouvelles fonctionnalités**
+ Ajout de la prise en charge de l'authentification Kerberos. Pour plus d'informations, consultez [Utilisation de l'authentification Kerberos](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html) dans le *Guide de gestion Amazon EMR*
+ Ajout de la prise en charge des rôles IAM pour les demandes EMRFS. Pour plus d'informations, consultez [Configuration des rôles IAM pour les requêtes EMRFS vers Amazon S3](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-emrfs-iam-role.html) dans le *Guide de gestion Amazon EMR*.
+ Ajout de la prise en charge des types d'instances P2 et P3 basées sur GPU. Pour plus d'informations, consultez [Instances P2 Amazon EC2](https://aws.amazon.com/ec2/instance-types/p2/) et [Instances P3 Amazon EC2](https://aws.amazon.com/ec2/instance-types/p3/). Les pilotes NVIDIA 384.81 et CUDA 9.0.176 sont installés sur ces types d'instance par défaut.
+ Ajout de la prise en charge de [Apache MXNet](emr-mxnet.md).

**Modifications, améliorations et problèmes résolus**
+ Presto
  + Ajout de la prise en charge de l'utilisation du catalogue de données AWS Glue comme métastore Hive par défaut. Pour plus d'informations, consultez la section [Utilisation de Presto avec le catalogue de données AWS Glue](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html#emr-presto-glue).
  + Ajout de la prise en charge des [fonctions géospatiales](https://prestodb.io/docs/current/functions/geospatial.html).
  + Ajout de la prise en charge du [déversement sur le disque](https://prestodb.io/docs/current/admin/spill.html) pour les jointures.
  + Ajout de la prise en charge du [connecteur Redshift](https://prestodb.io/docs/current/connector/redshift.html).
+ Spark
  + Rétroportage de [SPARK-20640](https://issues.apache.org/jira/browse/SPARK-20640), ce qui permet de configurer le délai des appels de procédure distante et les tentatives aléatoires des enregistrements de réorganisation à l'aide des propriétés `spark.shuffle.registration.timeout` et `spark.shuffle.registration.maxAttempts`.
  + [SPARK-21549](https://issues.apache.org/jira/browse/SPARK-21549) a été rétroporté, qui corrige une erreur survenue lors de l'écriture personnalisée OutputFormat dans des emplacements autres que le HDFS.
+ Rétroportage de [Hadoop-13270](https://issues.apache.org/jira/browse/HADOOP-13270)
+ Les bibliothèques Numpy, Scipy et Matplotlib ont été supprimées de l'AMI Amazon EMR de base. Si vous avez besoin de ces bibliothèques pour votre application, elles sont disponibles dans le référentiel d'applications. Vous pouvez utiliser une action d'amorçage pour les installer sur tous les nœuds à l'aide de `yum install`.
+ L'image AMI Amazon EMR de base n'inclut plus de packages RPM d'application, de telle manière que les packages RPM ne sont plus présents sur les nœuds du cluster. Custom AMIs et l'AMI de base Amazon EMR font désormais référence au référentiel de packages RPM dans Amazon S3.
+ En raison de l'introduction d'une facturation à la seconde dans Amazon EC2, le **Comportement de réduction de capacité** par défaut est maintenant une **Résiliation à l'achèvement de la tâche** au lieu d'une **Résiliation à l'heure de l'instance**. Pour plus d'informations, consultez [Configuration de la diminution de la capacité des clusters](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html).

**Problèmes connus**
+ MXNet n'inclut pas les bibliothèques OpenCV.
+ Hive 2.3.1 définit `hive.compute.query.using.stats=true` par défaut. Cela entraîne des requêtes pour obtenir des données à partir de statistiques existantes plutôt que directement à partir des données, ce qui peut être déroutant. Par exemple, si vous avez une table avec `hive.compute.query.using.stats=true` et que vous téléchargez de nouveaux fichiers vers la table `LOCATION`, l'exécution d'une demande `SELECT COUNT(*)` sur la table renvoie le nombre des statistiques, plutôt que de récupérer les lignes ajoutées.

  Pour contourner ce problème, utilisez la commande `ANALYZE TABLE` pour collecter de nouvelles statistiques, ou définissez `hive.compute.query.using.stats=false`. Pour en savoir plus, consultez [Statistiques dans Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) dans la documentation Apache Hive.

## Versions des composants 5.10.0
<a name="emr-5100-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.7.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | Service au niveau du nœud HDFS pour stocker les blocs. | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.10.0
<a name="emr-5100-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.10.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.9.1
<a name="emr-591-release"></a>

## Versions d’application 5.9.1
<a name="emr-591-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,1183 | 1,11,1183 | 1,1,1160 | 1,1,1160 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.184 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.9.1
<a name="emr-591-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.9.1
<a name="emr-591-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.7.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.19.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.184 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.184 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.9.1
<a name="emr-591-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.9.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.9.0
<a name="emr-590-release"></a>

## Versions d’application 5.9.0
<a name="emr-590-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,11,1183 | 1,1,1160 | 1,1,1160 | 1,1,1160 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.9.0
<a name="emr-590-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.9.0. Il s'agit des modifications apportées à la version Amazon EMR 5.8.0.

Date de parution : 5 octobre 2017

Dernière date de mise à jour de la fonctionnalité : 12 octobre 2017

**Mises à niveau**
+ AWS SDK pour Java version 1.11.183
+ Flink 1.3.2
+ Hue 4.0.1
+ Pig 0.17.0
+ Presto 0.184

**Nouvelles fonctionnalités**
+ Ajout de la prise en charge de Livy (version 0.4.0-incubating). Pour de plus amples informations, veuillez consulter [Apache Livy](emr-livy.md).
+ Ajout de la prise en charge de Hue Notebook pour Spark.
+ Ajout de la prise en charge des instances Amazon EC2 i3-series (12 octobre 2017).

**Modifications, améliorations et problèmes résolus**
+ Spark
  + Ajout d'un nouvel ensemble de fonctionnalités qui permet de s'assurer que Spark gère plus élégamment la terminaison des nœuds suite à un redimensionnement manuel ou à une demande de stratégie de dimensionnement automatique. Pour de plus amples informations, veuillez consulter [Configuration du comportement de mise hors service du nœud](emr-spark-configure.md#spark-decommissioning).
  + SSL est utilisé à la place de 3DES pour le chiffrement en transit du service de transfert de bloc, ce qui améliore les performances lors de l'utilisation des types d'instance Amazon EC2 avec AES-NI.
  + Rétroportage de [SPARK-21494](https://issues.apache.org/jira/browse/SPARK-21494).
+ Zeppelin
  + Rétroportage de [ZEPPELIN-2377](https://issues.apache.org/jira/browse/ZEPPELIN-2377).
+ HBase
  + Ajout du correctif [HBASE-18533](https://issues.apache.org/jira/browse/HBASE-18533), qui autorise des valeurs supplémentaires pour la configuration à l'aide de la classification HBase BucketCache de configuration. `hbase-site`
+ Hue
  + Ajout de la prise en charge du catalogue de données AWS Glue pour l'éditeur de requêtes Hive dans Hue.
  + Par défaut, les superutilisateurs de Hue peuvent accéder à tous les fichiers auxquels les rôles IAM Amazon EMR sont autorisés à accéder. Les utilisateurs nouvellement créés n'ont pas automatiquement les autorisations d'accéder à l'explorateur de fichiers Amazon S3 et doivent avoir les autorisations `filebrowser.s3_access` activées pour leur groupe.
+ Résolution d'un problème en raison duquel les données JSON sous-jacentes créées à l'aide de AWS Glue Data Catalog étaient inaccessibles.

**Problèmes connus**
+ Le lancement du cluster échoue lorsque toutes les applications sont installées et que la taille du volume racine Amazon EBS par défaut n'est pas modifiée. Pour contourner le problème, utilisez la `aws emr create-cluster` commande du AWS CLI et spécifiez un `--ebs-root-volume-size` paramètre plus grand.
+ Hive 2.3.0 définit `hive.compute.query.using.stats=true` par défaut. Cela entraîne des requêtes pour obtenir des données à partir de statistiques existantes plutôt que directement à partir des données, ce qui peut être déroutant. Par exemple, si vous avez une table avec `hive.compute.query.using.stats=true` et que vous téléchargez de nouveaux fichiers vers la table `LOCATION`, l'exécution d'une demande `SELECT COUNT(*)` sur la table renvoie le nombre des statistiques, plutôt que de récupérer les lignes ajoutées.

  Pour contourner ce problème, utilisez la commande `ANALYZE TABLE` pour collecter de nouvelles statistiques, ou définissez `hive.compute.query.using.stats=false`. Pour en savoir plus, consultez [Statistiques dans Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) dans la documentation Apache Hive.

## Versions des composants 5.9.0
<a name="emr-590-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.7.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.19.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| livy-server | 0.4.0-incubating | Interface REST pour interagir avec Apache Spark | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.184 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.184 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.9.0
<a name="emr-590-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.9.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.8.3
<a name="emr-583-release"></a>

## Versions d’application 5.8.3
<a name="emr-583-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,1160 | 1,1,1160 | 1,1,1160 | 1,1,1160 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.8.3
<a name="emr-583-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.8.3
<a name="emr-583-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.6.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-1 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.8.3
<a name="emr-583-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.8.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.8.2
<a name="emr-582-release"></a>

## Versions d’application 5.8.2
<a name="emr-582-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,1160 | 1,1,1160 | 1,1,1160 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.8.2
<a name="emr-582-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.8.2. Les modifications ont été apportées à la version 5.8.1.

Date de parution initiale : 29 mars 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités potentielles.

## Versions des composants 5.8.2
<a name="emr-582-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.6.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-1 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.8.2
<a name="emr-582-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.8.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.8.1
<a name="emr-581-release"></a>

## Versions d’application 5.8.1
<a name="emr-581-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,1160 | 1,1,1160 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.8.1
<a name="emr-581-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.8.1. Il s'agit des modifications apportées à la version Amazon EMR 5.8.0.

Date de parution initiale : 22 janvier 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités associées à l'exécution spéculative (CVE-2017-5715, CVE-2017-5753 et CVE-2017-5754). Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## Versions des composants 5.8.1
<a name="emr-581-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.6.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-1 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.8.1
<a name="emr-581-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.8.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.8.0
<a name="emr-580-release"></a>

## Versions d’application 5.8.0
<a name="emr-580-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,1160 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| HCatalog | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.8.0
<a name="emr-580-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.8.0. Il s'agit des modifications apportées à la version Amazon EMR 5.7.0.

Date de parution initiale : 10 août 2017

Dernière date de mise à jour de la fonctionnalité : 25 septembre 2017

**Mises à niveau**
+ AWS SDK 1.11.160
+ Flink 1.3.1
+ Hive 2.3.0. Pour plus d'informations, consultez [Notes de mise à jour](https://issues.apache.org/jira/secure/ConfigureReleaseNote.jspa?projectId=12310843&version=12340269) sur le site Apache Hive.
+ Spark 2.2.0. Pour plus d'informations, consultez [Notes de mise à jour](https://spark.apache.org/releases/spark-release-2-2-0.html) sur le site Apache Spark.

**Nouvelles fonctionnalités**
+ Ajout de la prise en charge de l'affichage de l'historique de l'application (25 septembre 2017). Pour plus d'informations, consultez [Affichage de l'historique de l'application](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html) dans le *Guide de gestion Amazon EMR*.

**Modifications, améliorations et problèmes résolus**
+ **Intégration avec AWS Glue Data Catalog**
  + Hive et Spark SQL ont désormais la possibilité d'utiliser AWS Glue Data Catalog comme magasin de métadonnées Hive. Pour plus d’informations, consultez [Utiliser le catalogue de données AWS Glue comme métastore pour Hive](emr-hive-metastore-glue.md) et [Utiliser le catalogue AWS Glue Data Catalog avec Spark sur Amazon EMR](emr-spark-glue.md).
+ **Historique de l'application** ajouté aux détails du cluster, ce qui vous permet d'afficher les données historiques des applications YARN et des détails supplémentaires pour les applications Spark. Pour plus d'informations, consultez [Affichage de l'historique de l'application](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html) dans le *Guide de gestion Amazon EMR*.
+ **Oozie**
  + Rétroportage de [OOZIE-2748](https://issues.apache.org/jira/browse/OOZIE-2748).
+ **Hue**
  + Rétroportage de [HUE-5859](https://issues.cloudera.org/browse/HUE-5859)
+ **HBase**
  + Ajout d'un correctif pour exposer l'heure de démarrage du serveur HBase principal via Java Management Extensions (JMX) à l'aide `getMasterInitializedTime` de.
  + Ajout d'un correctif qui améliore la date de début du cluster.

**Problèmes connus**
+ Le lancement du cluster échoue lorsque toutes les applications sont installées et que la taille du volume racine Amazon EBS par défaut n'est pas modifiée. Pour contourner le problème, utilisez la `aws emr create-cluster` commande du AWS CLI et spécifiez un `--ebs-root-volume-size` paramètre plus grand.
+ Hive 2.3.0 définit `hive.compute.query.using.stats=true` par défaut. Cela entraîne des requêtes pour obtenir des données à partir de statistiques existantes plutôt que directement à partir des données, ce qui peut être déroutant. Par exemple, si vous avez une table avec `hive.compute.query.using.stats=true` et que vous téléchargez de nouveaux fichiers vers la table `LOCATION`, l'exécution d'une demande `SELECT COUNT(*)` sur la table renvoie le nombre des statistiques, plutôt que de récupérer les lignes ajoutées.

  Pour contourner ce problème, utilisez la commande `ANALYZE TABLE` pour collecter de nouvelles statistiques, ou définissez `hive.compute.query.using.stats=false`. Pour en savoir plus, consultez [Statistiques dans Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) dans la documentation Apache Hive.
+ **Spark** – Il existe un problème de fuite du gestionnaire de fichiers avec le démon apppusher lors de l'utilisation de Spark, qui peut apparaître après plusieurs heures ou jours pour une tâche Spark de longue durée. Pour résoudre le problème, connectez-vous au nœud primaire et tapez `sudo /etc/init.d/apppusher stop`. Cette commande arrête le démon apppusher, qu'Amazon EMR redémarre automatiquement.
+ **Historique de l'application**
  + Les données d'historique pour les exécuteurs Spark inactifs ne sont pas disponibles.
  + L'historique de l'application n'est pas disponible pour les clusters qui utilisent une configuration de sécurité pour permettre le chiffrement à la volée.

## Versions des composants 5.8.0
<a name="emr-580-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.6.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.3.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-1 | Client de ligne de commande Pig. | 
| spark-client | 2.2.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.8.0
<a name="emr-580-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.8.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.7.1
<a name="emr-571-release"></a>

## Versions d’application 5.7.1
<a name="emr-571-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,11,0- -1,3 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.7.1
<a name="emr-571-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.7.1
<a name="emr-571-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.7.1
<a name="emr-571-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.7.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.7.0
<a name="emr-570-release"></a>

## Versions d’application 5.7.0
<a name="emr-570-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,11,0- -1,3 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.7.0
<a name="emr-570-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.7.0. Il s'agit des modifications apportées à la version Amazon EMR 5.6.0.

Date de parution : 13 juillet 2017

**Mises à niveau**
+ Flink 1.3.0
+ Phoenix 4.11.0
+ Zeppelin 0.7.2

**Nouvelles fonctionnalités**
+ Possibilité ajoutée de spécifier une AMI Amazon Linux personnalisée lorsque vous créez un cluster. Pour en savoir plus, consultez [Utilisation d'une image AMI personnalisée](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html).

**Modifications, améliorations et problèmes résolus**
+ **HBase**
  + Ajout de la possibilité de configurer des clusters HBase en lecture et réplication. Consultez [Utilisation d'un cluster de réplica en lecture.](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-read-replica)
  + Correctifs de nombreux bogues et améliorations
+ **Presto** – ajout de la possibilité de configurer `node.properties`.
+ **YARN** – ajout de la possibilité de configurer `container-log4j.properties`.
+ **Sqoop** – [SQOOP-2880](https://issues.apache.org/jira/browse/SQOOP-2880) rétroporté, qui introduit un argument vous permettant de définir le répertoire temporaire de Sqoop.

## Versions des composants 5.7.0
<a name="emr-570-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.3.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.7.0
<a name="emr-570-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.7.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.6.1
<a name="emr-561-release"></a>

## Versions d’application 5.6.1
<a name="emr-561-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.6.1
<a name="emr-561-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.6.1
<a name="emr-561-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.6.1
<a name="emr-561-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.6.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.6.0
<a name="emr-560-release"></a>

## Versions d’application 5.6.0
<a name="emr-560-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.6.0
<a name="emr-560-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.6.0. Il s'agit des modifications apportées à la version Amazon EMR 5.5.0.

Date de parution : 5 juin 2017

**Mises à niveau**
+ Flink 1.2.1
+ HBase 1.3.1
+ Mahout 0.13.0. Il s'agit de la première version de Mahout à prendre en charge Spark 2.x dans les versions 5.0 et ultérieures d'Amazon EMR.
+ Spark 2.1.1

**Modifications, améliorations et problèmes résolus**
+ **Presto**
  + Ajout de la possibilité d'activer une communication SSL/TLS sécurisée entre les nœuds Presto en activant le chiffrement en transit à l'aide d'une configuration de sécurité. Pour plus d'informations, consultez [Chiffrement des données en transit](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption-options.html#emr-encryption-intransit).
  + Rétroportage de [Presto 7661](https://github.com/prestodb/presto/pull/7661/commits), ce qui ajoute l'option `VERBOSE` à l'instruction `EXPLAIN ANALYZE` pour transmettre des statistiques de bas niveau plus détaillées sur un plan de la requête.

## Versions des composants 5.6.0
<a name="emr-560-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.6.0
<a name="emr-560-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.6.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.5.4
<a name="emr-554-release"></a>

## Versions d’application 5.5.4
<a name="emr-554-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.5.4
<a name="emr-554-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.5.4
<a name="emr-554-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.16.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.5.4
<a name="emr-554-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.5.4**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.5.3
<a name="emr-553-release"></a>

## Versions d’application 5.5.3
<a name="emr-553-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## Notes de mise à jour 5.5.3
<a name="emr-553-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.5.3. Les modifications ont été apportées à la version 5.5.2.

Date de parution initiale : 29 août 2018

**Modifications, améliorations et problèmes résolus**
+ Cette version corrige une vulnérabilité de sécurité potentielle.

## Versions des composants 5.5.3
<a name="emr-553-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.16.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.5.3
<a name="emr-553-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.5.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.5.2
<a name="emr-552-release"></a>

## Versions d’application 5.5.2
<a name="emr-552-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 

## Notes de mise à jour 5.5.2
<a name="emr-552-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.5.2. Les modifications ont été apportées à la version 5.5.1.

Date de parution initiale : 29 mars 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités potentielles.

## Versions des composants 5.5.2
<a name="emr-552-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.16.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.5.2
<a name="emr-552-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.5.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.5.1
<a name="emr-551-release"></a>

## Versions d’application 5.5.1
<a name="emr-551-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.166 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.5.1
<a name="emr-551-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.5.1. Il s'agit des modifications apportées à la version Amazon EMR 5.5.0.

Date de parution initiale : 22 janvier 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités associées à l'exécution spéculative (CVE-2017-5715, CVE-2017-5753 et CVE-2017-5754). Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## Versions des composants 5.5.1
<a name="emr-551-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.16.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.5.1
<a name="emr-551-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.5.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.5.0
<a name="emr-550-release"></a>

## Versions d’application 5.5.0
<a name="emr-550-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.166 | 0.166 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 
| ZooKeeper | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.5.0
<a name="emr-550-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.5.0. Il s'agit des modifications apportées à la version Amazon EMR 5.4.0.

Date de parution : 26 avril 2017

**Mises à niveau**
+ Hue 3.12
+ Presto 0.170
+ Zeppelin 0.7.1
+ ZooKeeper 3.4.10

**Modifications, améliorations et problèmes résolus**
+ **Spark**
  + Patch Spark rétroporté [(SPARK-20115) Correction DAGScheduler permettant de recalculer tous les blocs de shuffle perdus lorsque le service de shuffle externe n'est pas disponible dans la version 2.1.0 de Spark](https://issues.apache.org/jira/browse/SPARK-20115), incluse dans cette version.
+ **Flink**
  + Flink s'appuie désormais sur Scala 2.11. Si vous utilisez l'API et les bibliothèques Scala, nous vous recommandons d'utiliser Scala 2.11 dans vos projets.
  + Résolution d'un problème où les valeurs par défaut `HADOOP_CONF_DIR` et `YARN_CONF_DIR` n'étaient pas définies correctement, si bien que `start-scala-shell.sh` ne fonctionnait pas. Ajout également de la possibilité de définir ces valeurs à l'aide de `env.hadoop.conf.dir` et `env.yarn.conf.dir` dans `/etc/flink/conf/flink-conf.yaml` ou la classification de configuration `flink-conf`.
  + Introduction d'une nouvelle commande spécifique à EMR, `flink-scala-shell` comme wrapper pour `start-scala-shell.sh`. Nous vous recommandons d'utiliser cette commande au lieu de `start-scala-shell`. La nouvelle commande simplifie l'exécution. Par exemple, `flink-scala-shell -n 2` démarre un shell Flink Scala avec un parallélisme de 2 tâches.
  + Introduction d'une nouvelle commande spécifique à EMR, `flink-yarn-session` comme wrapper pour `yarn-session.sh`. Nous vous recommandons d'utiliser cette commande au lieu de `yarn-session`. La nouvelle commande simplifie l'exécution. Par exemple, `flink-yarn-session -d -n 2` démarre une session Flink de longue durée à l'état détaché avec deux gestionnaires de tâches. 
  + Résolution du problème [(FLINK-6125) Commons httpclient n'est plus nuancé dans Flink 1.2](https://issues.apache.org/jira/browse/FLINK-6125).
+ **Presto**
  + Ajout de la prise en charge de l'authentification LDAP. L'utilisation de LDAP avec Presto sur Amazon EMR nécessite que vous activiez l'accès HTTPS pour le coordinateur Presto (`http-server.https.enabled=true` dans `config.properties`). Pour plus de détails sur la configuration, consultez [Authentification LDAP](https://prestodb.io/docs/current/security/ldap.html) dans la documentation Presto.
  + Ajout de la prise en charge de `SHOW GRANTS`.
+ **AMI Linux Amazon EMR de base**
  + Les versions d'Amazon EMR sont désormais basées sur Amazon Linux 2017.03. Pour plus d'informations, consultez [Notes de mise à jour Amazon Linux AMI 2017.03](https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/).
  + Suppression de Python 2.6 de l'image Linux de base d'Amazon EMR. Python 2.7 et 3.4 sont installés par défaut. Vous pouvez installer Python 2.6 manuellement si nécessaire.

## Versions des composants 5.5.0
<a name="emr-550-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.5.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.16.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.5.0
<a name="emr-550-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.5.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.4.1
<a name="emr-541-release"></a>

## Versions d’application 5.4.1
<a name="emr-541-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.4.1
<a name="emr-541-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.4.1
<a name="emr-541-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.15.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.166 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.166 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.4.1
<a name="emr-541-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.4.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.4.0
<a name="emr-540-release"></a>

## Versions d’application 5.4.0
<a name="emr-540-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2,11.8 | 2,11.8 | 2,11.8 | 2,11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.4.0
<a name="emr-540-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.4.0. Il s'agit des modifications apportées à la version Amazon EMR 5.3.0.

Date de parution : 8 mars 2017

**Mises à niveau**
+ Mise à niveau vers Flink 1.2.0
+ Mise à niveau vers la version HBase 1.3.0
+ Mise à niveau vers Phoenix 4.9.0
**Note**  
Si vous effectuez une mise à niveau depuis une version antérieure d'Amazon EMR vers Amazon EMR version 5.4.0 ou supérieure et utilisez une indexation secondaire, mettez à niveau les index locaux comme décrit dans la [documentation Apache Phoenix](https://phoenix.apache.org/secondary_indexing.html#Upgrading_Local_Indexes_created_before_4.8.0). Amazon EMR supprime les configurations requises de la classification `hbase-site`, mais les index doivent être repeuplés. La mise à niveau en ligne et hors ligne des index est prise en charge. Les mises à niveau sont par défaut en ligne, ce qui signifie que les index sont remplis de nouveau lors de l'initialisation depuis les clients Phoenix en version 4.8.0 ou supérieure. Pour spécifier des mises à niveau hors ligne, définissez la configuration `phoenix.client.localIndexUpgrade` sur false dans la classification `phoenix-site`, puis lancez SSH sur le nœud primaire afin d'exécuter `psql [zookeeper] -1`.
+ Mise à niveau vers Presto 0.166
+ Mise à niveau vers Zeppelin 0.7.0

**Modifications et améliorations**
+ Ajout de la prise en charge des instances r4. Consultez [Types d'instances Amazon EC2](https://aws.amazon.com/ec2/instance-types/).

## Versions des composants 5.4.0
<a name="emr-540-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.15.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.2.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.3.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.3.0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.3.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.3.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.3.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 2.1.1-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,9,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.166 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.166 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.7.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.4.0
<a name="emr-540-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.4.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.3.2
<a name="emr-532-release"></a>

## Versions d’application 5.3.2
<a name="emr-532-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.3.2
<a name="emr-532-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.3.2
<a name="emr-532-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.14.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.4 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.3.2
<a name="emr-532-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.3.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.3.1
<a name="emr-531-release"></a>

## Versions d’application 5.3.1
<a name="emr-531-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.3.1
<a name="emr-531-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.3.1. Il s'agit des modifications apportées à la version Amazon EMR 5.3.0.

Date de version : 7 février 2017

Modifications mineures pour rétroporter les correctifs Zeppelin et mettre à jour l'AMI par défaut pour Amazon EMR.

## Versions des composants 5.3.1
<a name="emr-531-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.14.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.4 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.3.1
<a name="emr-531-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.3.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.3.0
<a name="emr-530-release"></a>

## Versions d’application 5.3.0
<a name="emr-530-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## Notes de mise à jour 5.3.0
<a name="emr-530-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.3.0. Il s'agit des modifications apportées à la version Amazon EMR 5.2.1.

Date de parution : 26 janvier 2017

**Mises à niveau**
+ Mise à niveau vers Hive 2.1.1
+ Mise à niveau vers Hue 3.11.0
+ Mise à niveau vers Spark 2.1.0
+ Mise à niveau vers Oozie 4.3.0
+ Mise à niveau vers Flink 1.1.4

**Modifications et améliorations**
+ Ajout à Hue d'un correctif qui vous permet d'utiliser le paramètre `interpreters_shown_on_wheel` pour configurer les interpréteurs à afficher en premier sur la roue de sélection Notebook quel que soit leur ordre dans le fichier `hue.ini`.
+ Ajout de la classification de configuration, `hive-parquet-logging` que vous pouvez utiliser pour configurer des valeurs dans le fichier `parquet-logging.properties` de Hive.

## Versions des composants 5.3.0
<a name="emr-530-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.14.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.4 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.1-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.3.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.1.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.1.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.1.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.1.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.3.0
<a name="emr-530-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.3.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.2.3
<a name="emr-523-release"></a>

## Versions d’application 5.2.3
<a name="emr-523-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 

## Notes de mise à jour 5.2.3
<a name="emr-523-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.2.3
<a name="emr-523-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.13.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.2.3
<a name="emr-523-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.2.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.2.2
<a name="emr-522-release"></a>

## Versions d’application 5.2.2
<a name="emr-522-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.2.2
<a name="emr-522-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.2.2. Il s'agit des modifications apportées à la version Amazon EMR 5.2.1.

Date de parution : 2 mai 2017

**Problèmes connus résolus depuis les versions précédentes**
+ [SPARK-194459](https://issues.apache.org/jira/browse/SPARK-19459) a été rétroporté, ce qui résout un problème en cas d'échec de la lecture d'une table ORC contenant des colonnes. char/varchar 

## Versions des composants 5.2.2
<a name="emr-522-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.13.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.2.2
<a name="emr-522-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.2.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.2.1
<a name="emr-521-release"></a>

## Versions d’application 5.2.1
<a name="emr-521-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.2.1
<a name="emr-521-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.2.1. Il s'agit des modifications apportées à la version Amazon EMR 5.2.0.

Date de parution : 29 décembre 2016

**Mises à niveau**
+ Mise à niveau vers Presto 0.157.1. Pour plus d'informations, consultez [Notes de mise à jour Presto](https://prestodb.io/docs/current/release/release-0.157.1.html) dans la documentation Presto. 
+ Mise à niveau vers Zookeeper 3.4.9. Pour plus d'informations, consultez les [notes ZooKeeper de version](https://zookeeper.apache.org/doc/r3.4.9/releasenotes.html) dans la ZooKeeper documentation d'Apache.

**Modifications et améliorations**
+ Ajout de la prise en charge du type d'instance m4.16xlarge Amazon EC2 dans les versions 4.8.3 et ultérieures d'Amazon EMR, sauf les versions 5.0.0, 5.0.3 et 5.2.0.
+ Les versions d'Amazon EMR sont désormais basées sur Amazon Linux 2016.09. Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/).
+ L'emplacement des chemins de configuration Flink et YARN sont désormais définis par défaut dans `/etc/default/flink`, et vous n'avez pas besoin de définir les variables d'environnement `FLINK_CONF_DIR` et `HADOOP_CONF_DIR` lorsque vous exécutez les scripts de pilote `flink` ou `yarn-session.sh` pour lancer des tâches Flink.
+ Ajout du support pour les FlinkKinesisConsumer cours.

**Problèmes connus résolus depuis les versions précédentes**
+ Correction d'un problème dans Hadoop où le ReplicationMonitor thread pouvait rester bloqué pendant longtemps en raison d'une course entre la réplication et la suppression du même fichier dans un grand cluster.
+ Correction d'un problème en raison duquel ControlledJob \$1toString échouait avec une exception de pointeur nul (NPE) lorsque le statut de la tâche n'était pas correctement mis à jour.

## Versions des composants 5.2.1
<a name="emr-521-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.13.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.2.1
<a name="emr-521-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.2.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.2.0
<a name="emr-520-release"></a>

## Versions d’application 5.2.0
<a name="emr-520-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.2.0
<a name="emr-520-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.2.0. Il s'agit des modifications apportées à la version Amazon EMR 5.1.0.

Date de parution : 21 novembre 2016

**Modifications et améliorations**
+ Ajout du mode de stockage Amazon S3 pour HBase.
+  Vous permet de spécifier un emplacement Amazon S3 pour le HBase rootdir. Pour plus d'informations, consultez [HBase Amazon S3](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html).

**Mises à niveau**
+ Mise à niveau vers Spark 2.0.2

**Problèmes connus résolus depuis les versions précédentes**
+ Correction d'un problème avec /mnt tout en étant limité à 2 To sur les types d'instance uniquement EBS.
+ Correction d'un problème avec les journaux instance-controller et logpusher édités dans leurs fichiers .out correspondants au lieu de leurs fichiers .log configurés log4j, qui permutent toutes les heures. Les fichiers .out n'effectuent pas de permutation, cela remplirait finalement la partition /emr. Ce problème affecte uniquement les types d'instance de virtualisation HVM.

## Versions des composants 5.2.0
<a name="emr-520-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.12.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.152.3 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.152.3 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.2.0
<a name="emr-520-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.2.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.1.1
<a name="emr-511-release"></a>

## Versions d’application 5.1.1
<a name="emr-511-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.1.1
<a name="emr-511-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 5.1.1
<a name="emr-511-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.11.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.152.3 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.152.3 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.1.1
<a name="emr-511-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.1.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.1.0
<a name="emr-510-release"></a>

## Versions d’application 5.1.0
<a name="emr-510-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.1.0
<a name="emr-510-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.1.0. Il s'agit des modifications apportées à la version Amazon EMR 5.0.3.

Date de parution : 3 novembre 2016

**Modifications et améliorations**
+ Support ajouté pour Flink 1.1.3.
+ Presto a été ajouté comme une option dans la section ordinateur portable de Hue.

**Mises à niveau**
+ Mise à niveau vers la version HBase 1.2.3
+ Mise à niveau vers Zeppelin 0.6.2

**Problèmes connus résolus depuis les versions précédentes**
+ Correction d'un problème avec des requêtes Tez sur Amazon S3 où les fichiers ORC ne fonctionnaient pas aussi bien qu'avec les versions antérieures d'Amazon EMR 4.x.

## Versions des composants 5.1.0
<a name="emr-510-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.11.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.1.3 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.152.3 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.152.3 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.2 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.1.0
<a name="emr-510-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.1.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.0.3
<a name="emr-503-release"></a>

## Versions d’application 5.0.3
<a name="emr-503-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.0.3
<a name="emr-503-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.0.3. Il s'agit des modifications apportées à la version Amazon EMR 5.0.0.

Date de parution : 24 octobre 2016

**Mises à niveau**
+ Mise à niveau vers Hadoop 2.7.3
+ Mise à niveau vers Presto 0.152.3, qui comprend la prise en charge de l'interface Web Presto. Utilisez le port 8889 du coordinateur Presto pour accéder à l'interface Web Presto. Pour plus d'informations sur l'interface Web Presto, consultez [Interface Web](https://prestodb.io/docs/current/admin/web-interface.html) dans la documentation Presto.
+ Mise à niveau vers Spark 2.0.1
+ Les versions d'Amazon EMR sont désormais basées sur Amazon Linux 2016.09. Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/).

## Versions des composants 5.0.3
<a name="emr-503-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.10.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.152.3 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.152.3 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.0.3
<a name="emr-503-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.0.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.0.2
<a name="emr-502-release"></a>

## Versions d’application 5.0.2
<a name="emr-502-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.0.2
<a name="emr-502-relnotes"></a>

## Versions des composants 5.0.2
<a name="emr-502-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.9.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.150 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.150 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.0.2
<a name="emr-502-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.0.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.0.1
<a name="emr-501-release"></a>

## Versions d’application 5.0.1
<a name="emr-501-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.0.1
<a name="emr-501-relnotes"></a>

## Versions des composants 5.0.1
<a name="emr-501-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.9.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.150 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.150 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.0.1
<a name="emr-501-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.0.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 5.0.0
<a name="emr-500-release"></a>

## Versions d’application 5.0.0
<a name="emr-500-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## Notes de mise à jour 5.0.0
<a name="emr-500-relnotes"></a>

 Date de parution : 27 juillet 2016

**Mises à niveau**
+ Mise à niveau vers Hive 2.1
+ Mise à niveau vers Presto 0.150
+ Mise à niveau vers Spark 2.0
+ Mise à niveau vers Hue 3.10.0
+ Mise à niveau vers Pig 0.16.0
+ Mise à niveau vers Tez 0.8.4
+ Mise à niveau vers Zeppelin 0.6.1

**Modifications et améliorations**
+ Amazon EMR prend en charge les dernières versions open source de Hive (version 2.1) et de Pig (version 0.16.0). Si vous utilisiez Hive ou Pig sur Amazon EMR auparavant, cela risque d'avoir un impact sur certains cas d'utilisation. Pour en savoir plus, consultez [Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive.html) et [Pig](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-pig.html).
+ Tez est désormais le moteur d'exécution par défaut de Hive et Pig. Pour changer cela, vous devez modifier les valeurs appropriées dans les classifications de configuration `hive-site` et `pig-properties`, respectivement.
+ Une fonction améliorée de débogage des étapes a été ajoutée, ce qui vous permet de voir la cause première des échecs des étapes si le service peut déterminer la cause. Pour plus d'informations, consultez [Débogage d'étape amélioré](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-enhanced-step-debugging.html) dans le Guide de gestion Amazon EMR.
+ Les applications qui se terminaient par « -Sandbox » n'ont plus ce suffixe. Cela peut interrompre l'automatisation de certaines tâches, par exemple, si vous utilisez des scripts pour lancer des clusters avec ces applications. Le tableau suivant montre les noms d'application dans Amazon EMR 4.7.2 contre Amazon EMR 5.0.0.   
**Modification des noms d'application**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-500-release.html)
+ Spark est maintenant compilé pour Scala 2.11.
+ Java 8 est désormais la JVM par défaut. Toutes les applications s'exécutent avec le runtime Java 8. Aucune modification n'est apportée bytecode cible des applications. La plupart des applications continuent de cibler Java 7.
+ Zeppelin inclut désormais des fonctions d'authentification. Pour en savoir plus, consultez [Zeppelin](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-zeppelin.html).
+ Ajout de la prise en charge des configurations de sécurité, qui vous permettent de créer et d'appliquer des options de chiffrement plus facilement. Pour en savoir plus, consultez [Chiffrement des données](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption.html).

## Versions des composants 5.0.0
<a name="emr-500-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.9.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 2.1.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 2.1.0-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 2.1.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.10.0-amzn-0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.150 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.150 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.16.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 2.0.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.0.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.0.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.0.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 5.0.0
<a name="emr-500-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-5.0.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Versions Amazon EMR 4.x
<a name="emr-release-4x"></a>

Cette section contient les versions des applications, les notes de mise à jour, les versions des composants et les classifications de configuration disponibles dans chaque version Amazon EMR 4.x.

Lorsque vous lancez un cluster, vous pouvez choisir parmi plusieurs versions d'Amazon EMR. Vous pouvez ainsi tester et utiliser des versions d'applications qui répondent à vos exigences de compatibilité. Vous spécifiez le numéro de version avec l’*étiquette de version*. Les étiquettes de version sont sous la forme `emr-x.x.x`. Par exemple, `emr-7.12.0`.

Les nouvelles versions d'Amazon EMR sont mises à disposition dans différentes régions sur une période de plusieurs jours, en commençant par la première région à la date de sortie initiale. Il est possible que la dernière version ne soit pas disponible dans votre région pendant cette période.

Pour un tableau complet des versions des applications dans chaque version 4.x d'Amazon EMR, consultez [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md).

**Topics**
+ [

# Versions des applications dans les versions 4.x d'Amazon EMR
](emr-release-app-versions-4.x.md)
+ [

# Différences entre les versions Amazon EMR 4.x
](emr-release-differences-4x.md)
+ [

# Amazon EMR version 4.9.6
](emr-496-release.md)
+ [

# Amazon EMR version 4.9.5
](emr-495-release.md)
+ [

# Amazon EMR version 4.9.4
](emr-494-release.md)
+ [

# Amazon EMR version 4.9.3
](emr-493-release.md)
+ [

# Amazon EMR version 4.9.2
](emr-492-release.md)
+ [

# Amazon EMR version 4.9.1
](emr-491-release.md)
+ [

# Amazon EMR version 4.8.5
](emr-485-release.md)
+ [

# Amazon EMR version 4.8.4
](emr-484-release.md)
+ [

# Amazon EMR version 4.8.3
](emr-483-release.md)
+ [

# Amazon EMR version 4.8.2
](emr-482-release.md)
+ [

# Amazon EMR version 4.8.1
](emr-481-release.md)
+ [

# Amazon EMR version 4.8.0
](emr-480-release.md)
+ [

# Amazon EMR version 4.7.4
](emr-474-release.md)
+ [

# Amazon EMR version 4.7.3
](emr-473-release.md)
+ [

# Amazon EMR version 4.7.2
](emr-472-release.md)
+ [

# Amazon EMR version 4.7.1
](emr-471-release.md)
+ [

# Amazon EMR version 4.7.0
](emr-470-release.md)
+ [

# Amazon EMR version 4.6.1
](emr-461-release.md)
+ [

# Amazon EMR version 4.6.0
](emr-460-release.md)
+ [

# Amazon EMR version 4.5.0
](emr-450-release.md)
+ [

# Amazon EMR version 4.4.0
](emr-440-release.md)
+ [

# Amazon EMR version 4.3.0
](emr-430-release.md)
+ [

# Amazon EMR version 4.2.0
](emr-420-release.md)
+ [

# Amazon EMR version 4.1.0
](emr-410-release.md)
+ [

# Amazon EMR version 4.0.0
](emr-400-release.md)

# Versions des applications dans les versions 4.x d'Amazon EMR
<a name="emr-release-app-versions-4.x"></a>

Le tableau suivant répertorie les versions des applications disponibles dans chaque version 4.x d'Amazon EMR.


**Informations sur la version de l'application**  

|  | emr-4.9.6 | emr-4.9.5 | emr-4.9.4 | emr-4.9.3 | emr-4.9.2 | emr-4.9.1 | emr-4.8.5 | emr-4.8.4 | emr-4.8.3 | emr-4.8.2 | emr-4.8.1 | emr-4.8.0 | emr-4.7.4 | emr-4.7.3 | emr-4.7.2 | emr-4.7.1 | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,27 | 1,1,27 | 1,1,27 | 1,1,27 | 1,1,27 | 1,1,27 | Non suivie | Non suivie | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 |  -  |  -  |  -  |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.0 | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 0.151 | 0.151 | 0.148 | 0.148 | 0.148 | 0.147 | 0.147 | 0.143 | 0.143 | 0.140 | 0.136 | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 |  -  |  -  |  -  |  -  |  -  |  -  | 

# Différences entre les versions Amazon EMR 4.x
<a name="emr-release-differences-4x"></a>

La documentation relative aux fonctionnalités d'Amazon EMR dans le *Guide de gestion Amazon EMR* précise la version d'Amazon EMR dans laquelle une fonctionnalité est devenue disponible, ainsi que les différences applicables entre les fonctionnalités d'Amazon EMR qui remontent à la version 4.0.0.

À partir de la version Amazon EMR 5.0.0, certaines applications ont subi une mise à niveau de version importante qui a modifié les modalités d'installation ou opérationnelles, et d'autres applications sont passées du statut d'application sandbox au statut d'application native. Chaque rubrique de cette section présente les différences significatives spécifiques aux applications lorsque vous utilisez les versions Amazon EMR 4.x.

**Topics**
+ [

# Applications de l'environnement de test (sandbox)
](emr-sandbox-apps-4x.md)
+ [

# Considérations relatives à l'utilisation de Hive sur Amazon EMR 4.x
](emr-Hive-4x.md)
+ [

# Considérations relatives à l'utilisation de Pig sur Amazon EMR 4.x
](emr-Pig-4x.md)

# Applications de l'environnement de test (sandbox)
<a name="emr-sandbox-apps-4x"></a>

Lorsque vous utilisez les versions 4.x d'Amazon EMR, certaines applications sont considérées comme des applications d'*environnement de test (sandbox)*. Les applications de l'environnement de test (sandbox) sont des versions antérieures de l'application que nous avons mises à disposition au moment du lancement de la première version d'Amazon EMR en raison de la demande. Vous pouvez utiliser la console ou l'API pour qu'Amazon EMR installe les applications sandbox de la même manière que les applications natives, mais le support et la documentation des applications sandbox sont limités. AWS CLI Les applications sandbox deviennent des applications natives et entièrement prises en charge dans la version Amazon EMR 5.0.0 et versions ultérieures. Voici des applications sandbox dans les versions Amazon EMR 4.x :
+ Oozie
+ Presto
+ Sqoop
+ Zeppelin
+ ZooKeeper

Lorsque vous installez des applications sandbox, le nom des applications porte le suffixe `-sandbox`. Par exemple, pour installer la version sandbox de*Presto*, utilisez`Presto-sandbox`. L'installation de cette application peut prendre plus de temps que celle d'une application entièrement prise en charge. Les numéros de version répertoriés pour chaque application dans cette section correspondent à la version de communauté de l'application.

## Oozie (versions de l'environnement de test)
<a name="emr-Oozie-sandbox-4x"></a>

Oozie est disponible sous la forme d'une application d'environnement de test (sandbox) à partir de la version Amazon EMR 4.1.0.

Les exemples Oozie ne sont pas installés par défaut avec les versions sandbox. Pour installer les exemples, accédez au nœud principal via SSH et exécutez `install-oozie-examples`.


**Informations sur la version Oozie-Sandbox**  

| Étiquette de version Amazon EMR | Oozie – Version d'environnement de test (sandbox) | Composants installés avec Oozie-Sandbox | 
| --- | --- | --- | 
| emr-4.9.6 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.5 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.4 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.3 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.2 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.5 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.4 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.3 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.2 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.4 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.3 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.2 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.6.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.6.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.5.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.4.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.3.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.2.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.1.0 | 4.0.1 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 

## Presto (versions de l'environnement de test)
<a name="emr-Presto-sandbox-4x"></a>

Presto est disponible sous la forme d'une application d'environnement de test (sandbox) à partir de la version Amazon EMR 4.1.0.


**Informations sur la version Presto-Sandbox**  

| Étiquette de version Amazon EMR | Presto – Version d'environnement de test (sandbox) | Composants installés avec Presto-Sandbox | 
| --- | --- | --- | 
| emr-4.9.6 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.5 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.4 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.3 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.2 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.1 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.5 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.4 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.3 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.2 | 0.152.3 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.1 | 0.151 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.0 | 0.151 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.4 | 0.148 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.3 | 0.148 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.2 | 0.148 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.1 | 0.147 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.0 | 0.147 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.6.1 | 0.143 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.6.0 | 0.143 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.5.0 | 0.140 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.4.0 | 0.136 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.3.0 | 0.130 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.2.0 | 0.125 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.1.0 | 0.119 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 

## Sqoop (versions de l'environnement de test)
<a name="emr-Sqoop-sandbox-4x"></a>

Sqoop est disponible sous la forme d'une application d'environnement de test (sandbox) à partir de la version Amazon EMR 4.4.0.


**Informations sur la version Sqoop-Sandbox**  

| Étiquette de version Amazon EMR | Sqoop – Version d'environnement de test (sandbox) | Composants installés avec Sqoop-Sandbox | 
| --- | --- | --- | 
| emr-4.9.6 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.5 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.4 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.3 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.2 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.5 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.4 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.3 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.2 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.4 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.3 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.2 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.6.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.6.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.5.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, sqoop-client | 
| emr-4.4.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, sqoop-client | 

## Zeppelin (versions de l'environnement de test)
<a name="emr-Zeppelin-sandbox-4x"></a>

Zeppelin est disponible sous la forme d'une application d'environnement de test (sandbox) à partir de la version Amazon EMR 4.1.0.


**Informations sur la version Zeppelin-Sandbox**  

| Étiquette de version Amazon EMR | Version Zeppelin-Sandbox | Composants installés avec Zeppelin-Sandbox | 
| --- | --- | --- | 
| emr-4.9.6 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.5 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.4 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.3 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.2 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.1 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.5 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.4 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.3 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.2 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.1 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.0 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.4 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.3 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.2 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.1 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.6.1 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.6.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.5.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.4.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.3.0 | 0.5.5-incubating-amzn-1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.2.0 | 0.5.5-incubating-amzn-0 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.1.0 | 0.6.0-incubating-SNAPSHOT | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 

## ZooKeeper (versions bac à sable)
<a name="emr-Zookeeper-sandbox-4x"></a>

Zookeeper est disponible sous la forme d'une application d'environnement de test (sandbox) à partir de la version Amazon EMR 4.6.0.


**ZooKeeper-Informations sur la version du bac à sable**  

| Étiquette de version Amazon EMR | ZooKeeper-Version bac à sable | Composants installés avec ZooKeeper -Sandbox | 
| --- | --- | --- | 
| emr-4.9.6 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.5 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.4 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.3 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.2 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.1 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.5 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.4 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.3 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.2 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.1 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.0 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.4 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.3 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.2 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.1 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.0 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.6.1 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.6.0 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 

# Considérations relatives à l'utilisation de Hive sur Amazon EMR 4.x
<a name="emr-Hive-4x"></a>

Cette section couvre les différences à prendre en compte lors de l'utilisation de la version Hive 1.0.0 sur les versions 4.x d'Amazon EMR, en comparaison avec Hive 2.x sur les versions 5.x d'Amazon EMR.

## Les transactions ACID ne sont pas prises en charge.
<a name="emr-Hive-acid-4x"></a>

Hive sur les versions 4.x d'Amazon EMR ne prend pas en charge les transactions ACID avec les données Hive stockées dans Amazon S3 lorsque vous utilisez les versions 4.x. Si vous essayez de créer une table transactionnelle dans Amazon S3, cela entraîne une exception.

## Lecture et écriture de tables dans Amazon S3
<a name="emr-Hive-s3table-4x"></a>

Hive sur les versions 4.x d'Amazon EMR peut écrire directement dans Amazon S3 sans utiliser de fichiers temporaires. Cela améliore les performances, mais par voie de conséquence, vous ne pouvez pas lire et écrire dans la même table dans Amazon S3 via la même instruction Hive. Une solution de contournement consiste à créer et utiliser une table temporaire dans HDFS.

L'exemple suivant montre comment utiliser plusieurs instructions Hive pour mettre à jour une table dans Amazon S3. Les instructions créent une table temporaire nommée `tmp` dans HDFS en se basant sur une table dans Amazon S3 nommée `my_s3_table`. La table dans Amazon S3 est alors mise à jour avec le contenu de la table temporaire.

```
CREATE TEMPORARY TABLE tmp LIKE my_s3_table;
INSERT OVERWRITE TABLE tmp SELECT ....;
INSERT OVERWRITE TABLE my_s3_table SELECT * FROM tmp;
```

## Log4j par rapport à Log4j 2
<a name="emr-Hive-log4j-4x"></a>

Hive sur les versions Amazon EMR 4.x utilise Log4j. À partir de la version 5.0.0, Log4j 2 est la configuration par défaut. Ces versions peuvent nécessiter différentes configurations de journalisation. Pour plus de détails, consultez [Apache Log4j 2](http://logging.apache.org/log4j/2.x/).

## MapReduce est le moteur d'exécution par défaut
<a name="emr-Hive-tez-4x"></a>

Les versions 4.x de Hive on Amazon EMR sont MapReduce utilisées comme moteur d'exécution par défaut. À partir de la version Amazon EMR 5.0.0, Tez est la valeur par défaut, ce qui offre des performances améliorées pour la plupart des flux de travail.

## Autorisation Hive
<a name="emr-Hive-authz-4x"></a>

Hive sur les versions Amazon EMR 4.x prend en charge l'[autorisation Hive](https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Authorization) pour HDFS, mais pas pour EMRFS et Amazon S3. Les clusters Amazon EMR s'exécutent avec l'autorisation désactivée par défaut.

## Comportement de fusion de fichiers Hive avec Amazon S3
<a name="emr-Hive-filemerge-4x"></a>

Hive sur les versions 4.x d'Amazon EMR fusionne de petits fichiers à la fin d'une tâche de mappage uniquement si `hive.merge.mapfiles` est défini sur `true`. Une fusion est déclenchée uniquement si la taille de sortie moyenne de la tâche est inférieure au paramètre `hive.merge.smallfiles.avgsize`. Le comportement d'Amazon EMR Hive est identique si le chemin de la sortie finale est sur HDFS. Cependant, si le chemin de sortie se trouve dans Amazon S3, le paramètre `hive.merge.smallfiles.avgsize` est ignoré. Dans ce cas, la tâche de fusion est toujours déclenchée si `hive.merge.mapfiles` est défini sur `true`.

# Considérations relatives à l'utilisation de Pig sur Amazon EMR 4.x
<a name="emr-Pig-4x"></a>

La version Pig 0.14.0 est installée sur les clusters créés avec les versions Amazon EMR 4.x. Pig a été mis à niveau à la version 0.16.0 dans Amazon EMR 5.0.0. Les différences importantes sont discutées ci-dessous.

## Moteur d'exécution par défaut différent
<a name="emr-Pig-engine-4x"></a>

La version 0.14.0 de Pig sur les versions 4.x d'Amazon EMR est utilisée MapReduce comme moteur d'exécution par défaut. Pig 0.16.0 et les versions ultérieures utilisent Apache Tez. Vous pouvez définir explicitement `exectype=mapreduce` la classification `pig-properties` de configuration à utiliser MapReduce.

## Fonctions définies par l'utilisateur Dropped Pig () UDFs
<a name="emr-Pig-udf-4x"></a>

Les versions personnalisées UDFs disponibles dans les versions 4.x de Pig on Amazon EMR ont été supprimées à partir de Pig 0.16.0. La plupart d'entre eux UDFs ont des fonctions équivalentes que vous pouvez utiliser à la place. Le tableau suivant répertorie les fonctions supprimées UDFs et les fonctions équivalentes. Pour plus d'informations, consultez [Fonctions intégrées](https://pig.apache.org/docs/r0.16.0/func.html) sur le site Apache Pig.


| Fonctions définies par l'utilisateur abandonnées | Fonction équivalente | 
| --- | --- | 
|  FORMAT\$1DT (formatdt, date)  |  GetHour(date), GetMinute (date), GetMonth (date), GetSecond (date), GetWeek (date), GetYear (date), GetDay (date)  | 
|  EXTRACT(chaîne, modèle)  |  REGEX\$1EXTRACT\$1ALL(chaîne, modèle)  | 
|  REPLACE(chaîne, modèle, remplacement)  |  REPLACE(chaîne, modèle, remplacement)  | 
|  DATE\$1TIME()  |  ToDate()  | 
|  DURATION(dt, dt2)  |  WeeksBetween(dt, dt2), YearsBetween (dt, dt2), SecondsBetween (dt, dt2), (dt, dt2), MonthsBetween (dt, dt2), MinutesBetween (dt, dt2) HoursBetween  | 
|  EXTRACT\$1DT(format, date)  |  GetHour(date), GetMinute (date), GetMonth (date), GetSecond (date), GetWeek (date), GetYear (date), GetDay (date)  | 
|  OFFSET\$1DT(date, durée)  |  AddDuration(date, durée), SubtractDuration (date, durée)  | 
|  PERIOD(dt, dt2)  |  WeeksBetween(dt, dt2), YearsBetween (dt, dt2), SecondsBetween (dt, dt2), (dt, dt2), MonthsBetween (dt, dt2), MinutesBetween (dt, dt2) HoursBetween  | 
|  CAPITALIZE(chaîne)  |  UCFIRST(chaîne)  | 
|  CONCAT\$1WITH()  |  CONCAT()  | 
|  INDEX\$1OF()  |  INDEXOF()  | 
|  LAST\$1INDEX\$1OF()  |  LAST\$1INDEXOF()  | 
|  SPLIT\$1ON\$1REGEX()  |  STRSPLT()  | 
|  UNCAPITALIZE()  |  LCFIRST()  | 

Les éléments suivants UDFs ont été supprimés sans équivalent : FORMAT (), LOCAL\$1DATE (), LOCAL\$1TIME (), CENTER (), LEFT\$1PAD (), REPEAT (), REPLACE\$1ONCE (), RIGHT\$1PAD (), STRIP\$1END (), STRIP\$1START (), SWAP\$1CASE ().

## Commandes Grunt abandonnées
<a name="emr-pig-gruntcmd-4x"></a>

Certaines commandes Grunt ont été suspendues à commencer par Pig 0.16.0. Le tableau suivant répertorie les commandes Grunt sous Pig 0.14.0 et les commandes équivalentes dans la version actuelle, le cas échéant. 


**Commandes Grunt Pig 0.14.0 et commandes équivalentes de la version de Pig actuelle**  

| Commande Grunt Pig 0.14.0 | Commande Grunt sous Pig 0.16.0 et version ultérieure | 
| --- | --- | 
|  chat (< non-hdfs-path >)  |  fs -cat < non-hdfs-path > ;  | 
| cd < non-hdfs-path > ; |  Pas d'équivalent  | 
| ls < non-hdfs-path > ; | fs -ls < non-hdfs-path > ; | 
|  déplacer < non-hdfs-path > < non-hdfs-path > ;  |  fs -mv < non-hdfs-path > < > ; non-hdfs-path  | 
| copier < non-hdfs-path > < non-hdfs-path > ; |  fs -cp < non-hdfs-path > < non-hdfs-path > ;  | 
| copyToLocal < non-hdfs-path > <local-path>; |  fs - copyToLocal < non-hdfs-path > <local-path>;  | 
| copyFromLocal <local-path>< non-hdfs-path > ; |  fs - copyFromLocal <local-path>< non-hdfs-path > ;  | 
| mkdir < non-hdfs-path > ; |  fs -mkdir < > ; non-hdfs-path  | 
| rm < non-hdfs-path > ; |  fs -rm -r -SipTrash < > ; non-hdfs-path  | 
|  rmf < non-hdfs-path > ;  |  fs -rm -r -SipTrash < > ; non-hdfs-path  | 

## Capacités supprimées pour les répertoires de base non HDFS
<a name="emr-Pig-users-4x"></a>

Pig 0.14.0 sur les versions 4.x d'Amazon EMR possède deux mécanismes pour autoriser les utilisateurs autres que l'utilisateur `hadoop`, qui ne disposent pas de répertoires de base, à exécuter des scripts Pig. Le premier mécanisme est un mécanisme de secours automatique qui définit le répertoire de travail initial dans le répertoire racine, si le répertoire de base n'existe pas. Le second mécanisme est une propriété `pig.initial.fs.name` qui vous permet de modifier le répertoire de travail initial.

Ces mécanismes ne sont pas disponibles à partir des versions Amazon EMR 5.0.0. C'est pourquoi les utilisateurs doivent disposer d'un répertoire de base sur un HDFS. Cela ne s'applique pas à l'utilisateur `hadoop`, car un répertoire de base est provisionné lors du lancement. Les scripts qui s'exécutent à l'aide des étapes JAR Hadoop utilisent par défaut l'utilisateur Hadoop, sauf si un autre utilisateur est explicitement spécifié à l'aide de `command-runner.jar`.

# Amazon EMR version 4.9.6
<a name="emr-496-release"></a>

## versions de l'application 4.9.6
<a name="emr-496-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.9.6 | emr-4.9.5 | emr-4.9.4 | emr-4.9.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## notes de mise à jour de la version 4.9.6
<a name="emr-496-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## versions des composants 4.9.6
<a name="emr-496-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-9 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.9.6 classifications de configuration
<a name="emr-496-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.9.6**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.9.5
<a name="emr-495-release"></a>

## versions de l'application 4.9.5
<a name="emr-495-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.9.5 | emr-4.9.4 | emr-4.9.3 | emr-4.9.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## notes de publication de la version 4.9.5
<a name="emr-495-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.9.5. Les modifications ont été apportées à la version 4.9.4.

Date de parution initiale : 29 août 2018

**Modifications, améliorations et problèmes résolus**
+ HBase
  + Cette version corrige une vulnérabilité de sécurité potentielle.

## versions des composants 4.9.5
<a name="emr-495-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-9 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.9.5 classifications de configuration
<a name="emr-495-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.9.5**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.9.4
<a name="emr-494-release"></a>

## versions de l'application 4.9.4
<a name="emr-494-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.9.4 | emr-4.9.3 | emr-4.9.2 | emr-4.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## notes de publication de la version 4.9.4
<a name="emr-494-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.9.4. Les modifications ont été apportées à la version 4.9.3.

Date de parution initiale : 29 mars 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités potentielles.

## versions des composants 4.9.4
<a name="emr-494-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-9 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.9.4 classifications de configuration
<a name="emr-494-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.9.4**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.9.3
<a name="emr-493-release"></a>

## versions de l'application 4.9.3
<a name="emr-493-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.9.3 | emr-4.9.2 | emr-4.9.1 | emr-4.8.5 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## notes de publication de la version 4.9.3
<a name="emr-493-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.9.3. Il s'agit des modifications apportées à la version Amazon EMR 4.9.2.

Date de parution initiale : 22 janvier 2018

**Modifications, améliorations et problèmes résolus**
+ Mise à jour du noyau Amazon Linux de l'AMI Amazon Linux par défaut pour Amazon EMR afin de corriger les vulnérabilités associées à l'exécution spéculative (CVE-2017-5715, CVE-2017-5753 et CVE-2017-5754). Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## versions des composants 4.9.3
<a name="emr-493-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-9 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.9.3 classifications de configuration
<a name="emr-493-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.9.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.9.2
<a name="emr-492-release"></a>

## versions de l'application 4.9.2
<a name="emr-492-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.9.2 | emr-4.9.1 | emr-4.8.5 | emr-4.8.4 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## notes de publication de la version 4.9.2
<a name="emr-492-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.9.2. Il s'agit des modifications apportées à la version Amazon EMR 4.9.1.

Date de parution : 13 juillet 2017

Des modifications mineures, des correctifs de bogues et des améliorations ont été apportées à cette version.

## versions des composants 4.9.2
<a name="emr-492-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.17.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-9 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.9.2 classifications de configuration
<a name="emr-492-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.9.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.9.1
<a name="emr-491-release"></a>

## versions de l'application 4.9.1
<a name="emr-491-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.9.1 | emr-4.8.5 | emr-4.8.4 | emr-4.8.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## notes de publication de la version 4.9.1
<a name="emr-491-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.9.1. Il s'agit des modifications apportées à la version Amazon EMR 4.8.4.

Date de parution : 10 avril 2017

**Problèmes connus résolus depuis les versions précédentes**
+ Rétroportages de [HIVE-9976](https://issues.apache.org/jira/browse/HIVE-9976) et [HIVE-10106](https://issues.apache.org/jira/browse/HIVE-10106)
+ Correction d'un problème dans YARN où un grand nombre de nœuds (supérieur à 2 000) et de conteneurs (supérieur à 5 000) provoquait une out-of-memory erreur, par exemple :`"Exception in thread main java.lang.OutOfMemoryError"`.

**Modifications et améliorations**
+ Les versions d'Amazon EMR sont désormais basées sur Amazon Linux 2017.03. Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/](https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/).
+ Suppression de Python 2.6 de l'image Linux de base d'Amazon EMR. Vous pouvez installer Python 2.6 manuellement si nécessaire.

## versions des composants 4.9.1
<a name="emr-491-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.3.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.15.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-9 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-9 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-9 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-9 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-9 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.9.1 classifications de configuration
<a name="emr-491-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.9.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.8.5
<a name="emr-485-release"></a>

## versions de l'application 4.8.5
<a name="emr-485-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.8.5 | emr-4.8.4 | emr-4.8.3 | emr-4.8.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 
| Hive | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 

## notes de publication de la version 4.8.5
<a name="emr-485-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## Versions des composants 4.8.5
<a name="emr-485-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.14.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-8 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-8 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-8 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-8 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-8 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-8 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.8.5 classifications de configuration
<a name="emr-485-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.8.5**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.8.4
<a name="emr-484-release"></a>

## versions de l'application 4.8.4
<a name="emr-484-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.8.4 | emr-4.8.3 | emr-4.8.2 | emr-4.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 
| Hive | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.152.3 | 0.151 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.8.4
<a name="emr-484-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.8.4. Il s'agit des modifications apportées à la version Amazon EMR 4.8.3.

Date de version : 7 février 2017

Des modifications mineures, des correctifs de bogues et des améliorations ont été apportées à cette version.

## versions des composants 4.8.4
<a name="emr-484-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.14.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-8 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-8 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-8 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-8 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-8 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-8 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.54\$1 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.25\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.8.4 classifications de configuration
<a name="emr-484-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.8.4**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.8.3
<a name="emr-483-release"></a>

## versions de l'application 4.8.3
<a name="emr-483-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.8.3 | emr-4.8.2 | emr-4.8.1 | emr-4.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 
| Hive | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.152.3 | 0.151 | 0.151 | 
| Spark | 1.6.3 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.8.3
<a name="emr-483-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.8.3. Il s'agit des modifications apportées à la version Amazon EMR 4.8.2.

Date de parution : 29 décembre 2016

**Mises à niveau**
+ Mise à niveau vers Presto 0.157.1. Pour plus d'informations, consultez [Notes de mise à jour Presto](https://prestodb.io/docs/current/release/release-0.157.1.html) dans la documentation Presto.
+ Mise à niveau vers Spark 1.6.3. Pour plus d'informations, consultez les [Notes de mise à jour Spark](http://spark.apache.org/releases/spark-release-1-6-3.html) dans la documentation Apache Spark.
+ Mise à niveau vers la version ZooKeeper 3.4.9. Pour plus d'informations, consultez les [notes ZooKeeper de version](https://zookeeper.apache.org/doc/r3.4.9/releasenotes.html) dans la ZooKeeper documentation d'Apache.

**Modifications et améliorations**
+ Ajout de la prise en charge du type d' EC2 instance Amazon m4.16xlarge dans Amazon EMR version 4.8.3 et versions ultérieures, à l'exception des versions 5.0.0, 5.0.3 et 5.2.0.
+ Les versions d'Amazon EMR sont désormais basées sur Amazon Linux 2016.09. Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/).

**Problèmes connus résolus depuis les versions précédentes**
+ Correction d'un problème dans Hadoop où le ReplicationMonitor thread pouvait rester bloqué pendant longtemps en raison d'une course entre la réplication et la suppression du même fichier dans un grand cluster.
+ Correction d'un problème en raison duquel ControlledJob \$1toString échouait avec une exception de pointeur nul (NPE) lorsque le statut de la tâche n'était pas correctement mis à jour.

## Versions des composants 4.8.3
<a name="emr-483-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.13.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-8 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-8 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-8 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-8 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-8 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-8 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.157.1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.157.1 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.3 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.3 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.3 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.3 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.9 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.9 | ZooKeeper client en ligne de commande. | 

## 4.8.3 classifications de configuration
<a name="emr-483-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.8.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.8.2
<a name="emr-482-release"></a>

## versions de l'application 4.8.2
<a name="emr-482-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.8.2 | emr-4.8.1 | emr-4.8.0 | emr-4.7.4 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 
| Hive | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.152.3 | 0.151 | 0.151 | 0.148 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.8.2
<a name="emr-482-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.8.2. Il s'agit des modifications apportées à la version Amazon EMR 4.8.0.

Date de parution : 24 octobre 2016

**Mises à niveau**
+ Mise à niveau vers Hadoop 2.7.3
+ Mise à niveau vers Presto 0.152.3, qui comprend la prise en charge de l'interface Web Presto. Utilisez le port 8889 du coordinateur Presto pour accéder à l'interface Web Presto. Pour plus d'informations sur l'interface Web Presto, consultez [Interface Web](https://prestodb.io/docs/current/admin/web-interface.html) dans la documentation Presto.
+ Les versions d'Amazon EMR sont désormais basées sur Amazon Linux 2016.09. Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/).

## versions des composants 4.8.2
<a name="emr-482-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.10.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.3-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-7 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.52 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.152.3 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.152.3 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.8.2 classifications de configuration
<a name="emr-482-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.8.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.8.1
<a name="emr-481-release"></a>

## versions de l'application 4.8.1
<a name="emr-481-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.8.1 | emr-4.8.0 | emr-4.7.4 | emr-4.7.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hadoop | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.151 | 0.151 | 0.148 | 0.148 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.8.1
<a name="emr-481-relnotes"></a>

## Versions des composants 4.8.1
<a name="emr-481-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.9.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-7 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.51 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.151 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.151 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.8.1 classifications de configuration
<a name="emr-481-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**classifications EMR-4.8.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.8.0
<a name="emr-480-release"></a>

## Versions de l'application 4.8.0
<a name="emr-480-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.8.0 | emr-4.7.4 | emr-4.7.3 | emr-4.7.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.1 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hadoop | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.151 | 0.148 | 0.148 | 0.148 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.3 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.8.0
<a name="emr-480-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.8.0. Il s'agit des modifications apportées à la version Amazon EMR 4.7.2.

Date de parution : 7 septembre 2016

**Mises à niveau**
+ Mise à niveau vers la version HBase 1.2.2
+ Mise à niveau vers Presto-Sandbox 0.151
+ Mise à niveau vers Tez 0.8.4
+ Mise à niveau vers Zeppelin-Sandbox 0.6.1

**Modifications et améliorations**
+ Correction d'un problème dans YARN à cause duquel ils ApplicationMaster tentaient de nettoyer des conteneurs qui n'existent plus parce que leurs instances avaient été fermées.
+ Correction de l'URL hive-server2 pour les actions Hive2 dans les exemples Oozie.
+ Ajout de la prise en charge d'autres catalogues Presto.
+ Correctifs rétroportés : [HIVE-8948](https://issues.apache.org/jira/browse/HIVE-8948), [HIVE-12679](https://issues.apache.org/jira/browse/HIVE-12679), [HIVE-13405](https://issues.apache.org/jira/browse/HIVE-13405), [PHOENIX-3116](https://issues.apache.org/jira/browse/PHOENIX-3116), [HADOOP-12689](https://issues.apache.org/jira/browse/HADOOP-12689)
+ Ajout de la prise en charge des configurations de sécurité, qui vous permettent de créer et d'appliquer des options de chiffrement plus facilement. Pour en savoir plus, consultez [Chiffrement des données](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption.html).

## Versions des composants 4.8.0
<a name="emr-480-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.9.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.2 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-7 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.51 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.151 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.151 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.6.1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.8.0 classifications de configuration
<a name="emr-480-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.8.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.7.4
<a name="emr-474-release"></a>

## versions de l'application 4.7.4
<a name="emr-474-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.7.4 | emr-4.7.3 | emr-4.7.2 | emr-4.7.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 
| Hadoop | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 
| Hive | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.148 | 0.148 | 0.148 | 0.147 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.7.4
<a name="emr-474-relnotes"></a>

Il s'agit d'une version de correctif visant à ajouter l'authentification AWS Signature version 4 pour les demandes adressées à Amazon S3. Toutes les applications et tous les composants sont identiques à ceux de la version précédente d'Amazon EMR.

**Important**  
Dans cette version, Amazon EMR utilise AWS Signature version 4 exclusivement pour authentifier les demandes adressées à Amazon S3. Pour de plus amples informations, veuillez consulter [Nouveautés](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## versions des composants 4.7.4
<a name="emr-474-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.8.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-6 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.148 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.148 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.3 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.7.4 classifications de configuration
<a name="emr-474-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.7.4**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.7.3
<a name="emr-473-release"></a>

## versions de l'application 4.7.3
<a name="emr-473-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.7.3 | emr-4.7.2 | emr-4.7.1 | emr-4.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,75 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 
| Hadoop | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 
| Hive | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.0 | 0.12.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.148 | 0.148 | 0.147 | 0.147 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.7.3
<a name="emr-473-relnotes"></a>

## versions des composants 4.7.3
<a name="emr-473-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.8.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-6 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.148 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.148 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.3 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.7.3 classifications de configuration
<a name="emr-473-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**classifications EMR-4.7.3**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.7.2
<a name="emr-472-release"></a>

## versions de l'application 4.7.2
<a name="emr-472-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.7.2 | emr-4.7.1 | emr-4.7.0 | emr-4.6.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,75 | 1,1,27 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.0 | 
| HCatalog | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 
| Hive | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.0 | 0.12.0 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.148 | 0.147 | 0.147 | 0.143 | 
| Spark | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 | 0.8.3 |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.7.2
<a name="emr-472-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.7.2.

Date de parution : 15 juillet 2016

**Caractéristiques**
+ Mise à niveau vers Mahout 0.12.2
+ Mise à niveau vers Presto 0.148
+ Mise à niveau vers Spark 1.6.2
+ Vous pouvez désormais créer un AWSCredentials fournisseur à utiliser avec EMRFS en utilisant un URI comme paramètre. Pour plus d'informations, voir [Création d'un AWSCredentials fournisseur pour EMRFS](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-plan-credentialsprovider.html).
+ EMRFS permet maintenant aux utilisateurs de configurer un point de terminaison DynamoDB personnalisé pour les métadonnées de leur vue cohérente à l'aide de la propriété `fs.s3.consistent.dynamodb.endpoint` dans le fichier `emrfs-site.xml`.
+ Ajout d'un script dans `/usr/bin` appelé `spark-example`, qui encapsule `/usr/lib/spark/spark/bin/run-example` pour vous permettre d'exécuter des exemples directement. Par exemple, pour exécuter l' SparkPi exemple fourni avec la distribution Spark, vous pouvez l'exécuter `spark-example SparkPi 100` à partir de la ligne de commande ou en `command-runner.jar` tant qu'étape dans l'API.

**Problèmes connus résolus depuis les versions précédentes**
+ Résolution d'un problème où `spark-assembly.jar` pour Oozie n'était pas à l'emplacement approprié quand Spark était également installé, ce qui provoquait un échec du lancement d'applications Spark avec Oozie.
+ Résolution d'un problème lié à la journalisation basée sur Spark Log4j dans des conteneurs YARN.

## versions des composants 4.7.2
<a name="emr-472-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.8.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-6 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.2 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.148 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.148 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.3 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.23 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.7.2 classifications de configuration
<a name="emr-472-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.7.2**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.7.1
<a name="emr-471-release"></a>

## versions de l'application 4.7.1
<a name="emr-471-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.7.1 | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,75 | 1,1,27 | 1,1,27 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 
| HCatalog | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 
| Hive | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.0 | 0.12.0 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.147 | 0.147 | 0.143 | 0.143 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## notes de publication de la version 4.7.1
<a name="emr-471-relnotes"></a>

Les notes de mise à jour suivantes contiennent des informations sur Amazon EMR 4.7.1.

Date de parution : 10 juin 2016

**Problèmes connus résolus depuis les versions précédentes**
+ Résolution d'un problème qui augmentait la durée de démarrage des clusters lancés dans un VPC avec des sous-réseaux privés. Ce bogue affectait uniquement les clusters lancés avec la version 4.7.0 d'Amazon EMR. 
+ Résolution d'un problème où des listes de fichiers dans Amazon EMR n'étaient pas traitées correctement pour les clusters lancés avec la version 4.7.0 d'Amazon EMR.

## Versions des composants 4.7.1
<a name="emr-471-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.7.1 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-5 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-5 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-5 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-5 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-5 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-5 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.147 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.147 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.3 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.18 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.7.1 classifications de configuration
<a name="emr-471-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.7.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.7.0
<a name="emr-470-release"></a>

## Versions de l'application 4.7.0
<a name="emr-470-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,75 | 1,1,27 | 1,1,27 | 1,1,27 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.0 | 1.2.0 |  -  | 
| HCatalog | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 
| Hive | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.147 | 0.143 | 0.143 | 0.140 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 |  -  | 

## notes de publication de la version 4.7.0
<a name="emr-470-relnotes"></a>

**Important**  
Amazon EMR 4.7.0 est obsolète. Veuillez plutôt utiliser Amazon EMR 4.7.1 ou une version ultérieure.

Date de parution : 2 juin 2016

**Caractéristiques**
+ Ajout d'Apache Phoenix 4.7.0
+ Ajout d'Apache Tez 0.8.3
+ Mise à niveau vers la version HBase 1.2.1
+ Mise à niveau vers Mahout 0.12.0
+ Mise à niveau vers Presto 0.147
+ Mise à niveau de la AWS SDK pour Java version 1.10.75
+ L'indicateur final a été supprimé de la propriété `mapreduce.cluster.local.dir` dans `mapred-site.xml` pour permettre aux utilisateurs d'exécuter Pig en mode local.
+ Pilotes JDBC Amazon Redshift disponibles sur le cluster

  Les pilotes JDBC Amazon Redshift sont maintenant inclus dans `/usr/share/aws/redshift/jdbc`. `/usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar` est le pilote Amazon Redshift compatible avec JDBC 4.1 et `/usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar` est le pilote Amazon Redshift compatible avec JDBC 4.0. Pour plus d'informations, consultez la section [Configuration d'une connexion JDBC](https://docs.aws.amazon.com/redshift/latest/mgmt/configure-jdbc-connection.html) dans le *Guide de gestion Amazon Redshift*.
+ Java 8

  Sauf pour Presto, OpenJDK 1.7 est le JDK par défaut utilisé pour toutes les applications. Cependant, OpenJDK 1.7 et 1.8 sont installés. Pour plus d'informations sur la configuration de `JAVA_HOME` pour les applications, consultez [Configuration d'applications pour utiliser Java 8](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html#configuring-java8).

**Problèmes connus résolus depuis les versions précédentes**
+ Résolution d'un problème de noyau qui affectait de manière significative les performances sur les volumes HDD à débit optimisé (ST1) EBS pour Amazon EMR dans emr-4.6.0.
+ Résolution d'un problème où un cluster échouait si une zone de chiffrement HDFS était spécifiée sans que Hadoop ait été choisi comme application.
+ Remplacement de la stratégie d'écriture HDFS par défaut `RoundRobin` par `AvailableSpaceVolumeChoosingPolicy`. Certains volumes n'ont pas été utilisés correctement avec la RoundRobin configuration, ce qui a entraîné la défaillance de nœuds principaux et un HDFS peu fiable.
+ Résolution d'un problème lié à l'interface de ligne de commande EMRFS, qui entraînait une exception lors de la création de la table de métadonnées DynamoDB par défaut pour des vues cohérentes.
+ Résolution d'un problème de blocage dans EMRFS qui pouvait potentiellement se produire lors d'opérations de changement de nom et de copie en plusieurs parties.
+ Correction d'un problème lié à EMRFS qui faisait en sorte que la CopyPart taille par défaut était de 5 Mo. La valeur par défaut est maintenant correctement définie sur 128 Mo.
+ Résolution d'un problème lié à la configuration upstart dans Zeppelin qui pouvait vous empêcher potentiellement d'arrêter le service.
+ Résolution d'un problème lié à Spark et Zeppelin qui vous empêchait d'utiliser le schéma d'URI `s3a://`, car `/usr/lib/hadoop/hadoop-aws.jar` n'était pas chargé correctement dans leur chemin de classe respectif.
+ Rétroportage de [HUE-2484](https://issues.cloudera.org/browse/HUE-2484).
+ J'ai rétroporté un [commit](https://github.com/cloudera/hue/commit/c3c89f085e7a29c9fac7de016d881142d90af3eb) depuis Hue 3.9.0 (il n'existe pas de JIRA) pour corriger un problème avec l' HBase exemple de navigateur. 
+ Rétroportage de [HIVE-9073](https://issues.apache.org/jira/browse/HIVE-9073).

## Versions des composants 4.7.0
<a name="emr-470-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.2.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.4.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.7.1 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 1.2.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-5 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-5 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-5 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-5 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-5 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-5 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-7 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.12.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5.46 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| phoenix-library | 4,7,0- -1,2 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.147 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.147 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| tez-on-yarn | 0.8.3 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.18 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.7.0 classifications de configuration
<a name="emr-470-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.7.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.6.1
<a name="emr-461-release"></a>

## versions de l'application 4.6.1
<a name="emr-461-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | 1,1,27 | 1,1,27 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.0 | 1.2.0 |  -  |  -  | 
| HCatalog | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 
| Hadoop | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 
| Hive | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.143 | 0.143 | 0.140 | 0.136 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 |  -  |  -  | 

## notes de publication de la version 4.6.1
<a name="emr-461-relnotes"></a>

## Versions des composants 4.6.1
<a name="emr-461-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.3.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.6.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hbase-hmaster | 1.2.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-4 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-6 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.1 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.143 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.143 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| webserver | 2,4 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## 4.6.1 classifications de configuration
<a name="emr-461-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**classifications EMR-4.6.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.6.0
<a name="emr-460-release"></a>

## Versions de l'application 4.6.0
<a name="emr-460-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | 1,1,27 | 1,1,27 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.0 |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 |  -  | 
| Hadoop | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 
| Hive | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.143 | 0.140 | 0.136 | 0.130 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 |  -  |  -  |  -  | 

## notes de publication de la version 4.6.0
<a name="emr-460-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.6.0.
+ Ajouté HBase 1.2.0
+ Ajout de Zookeeper-Sandbox 3.4.8 
+ Mise à niveau vers Presto-Sandbox 0.143
+ Les versions Amazon EMR sont désormais basées sur Amazon Linux 2016.03.0. Pour de plus amples informations, veuillez consulter [https://aws.amazon.com/amazon-linux-ami/2016.03-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.03-release-notes/).
+ Problème affectant les types de volume HDD à débit optimisé (ST1) EBS

  Un problème dans les versions 4.2 et précédentes de noyau Linux affecte de manière significative les performances sur les volumes HDD à débit optimisé (ST1) EBS pour EMR. Cette version (emr-4.6.0) utilise la version de noyau 4.4.5 et est donc concernée. Par conséquent, nous vous recommandons de ne pas utiliser emr-4.6.0 si vous voulez utiliser des volumes EBS st1. Vous pouvez utiliser emr-4.5.0 ou des versions précédentes d'Amazon EMR avec ST1 sans incidence. En outre, nous fournirons le correctif avec les versions futures.
+ Version de Python par défaut

  Python 3.4 est maintenant installé par défaut, mais Python 2.7 reste la valeur système par défaut. Vous pouvez configurer Python 3.4 comme valeur par défaut du système à l'aide d'une action bootstrap ; vous pouvez utiliser l'API de configuration pour définir l'exportation de PYSPARK\$1PYTHON sur `/usr/bin/python3.4` dans la classification afin d'affecter la `spark-env` version de Python utilisée par. PySpark
+ Java 8

  Sauf pour Presto, OpenJDK 1.7 est le JDK par défaut utilisé pour toutes les applications. Cependant, OpenJDK 1.7 et 1.8 sont installés. Pour plus d'informations sur la configuration de `JAVA_HOME` pour les applications, consultez [Configuration d'applications pour utiliser Java 8](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html#configuring-java8).

**Problèmes connus résolus depuis les versions précédentes**
+ Résolution d'un problème où le provisionnement d'application échouait parfois de manière aléatoire en raison d'un mot de passe généré.
+ Auparavant, `mysqld` était installé sur tous les nœuds. Maintenant, il est uniquement installé sur l'instance principale et seulement si l'application choisie inclut `mysql-server` comme composant. Actuellement, les applications suivantes incluent le `mysql-server` composant : Hive HCatalog, Hue, Presto-Sandbox et Sqoop-Sandbox.
+ Remplacement de la valeur par défaut 80 par 32 pour `yarn.scheduler.maximum-allocation-vcores`, ce qui résout un problème introduit dans emr-4.4.0 qui se produit principalement avec Spark lors de l'utilisation de l'option `maximizeResourceAllocation` dans un cluster dont le type d'instance principal est l'un des types d'instance large pour lesquels des cœurs virtuels YARN sont définis sur des valeurs supérieures à 32. Les types c4.8xlarge, cc2.8xlarge, hs1.8xlarge, i2.8xlarge, m2.4xlarge, r3.8xlarge, d2.8xlarge et m4.10xlarge étaient affectés par ce problème.
+ s3-dist-cp utilise désormais EMRFS pour toutes les nominations Amazon S3 et n'effectue plus une copie intermédiaire dans un répertoire HDFS temporaire.
+ Résolution d'un problème lié au traitement des exceptions pour le chiffrement côté client du chargement partitionné.
+ Ajout d'une option pour permettre aux utilisateurs de modifier la classe de stockage Amazon S3. Par défaut, ce paramètre est `STANDARD`. La configuration de classification `emrfs-site` est `fs.s3.storageClass`, et les valeurs possibles sont `STANDARD`, `STANDARD_IA` et `REDUCED_REDUNDANCY`. Pour plus d'informations sur les classes de stockage, consultez la section [Classes de stockage](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-class-intro.html) dans le *Guide de l'utilisateur Amazon Simple Storage Service*. 

## Versions des composants 4.6.0
<a name="emr-460-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.3.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.6.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hbase-hmaster | 1.2.0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 1.2.0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 1.2.0 | HBase client en ligne de commande. | 
| hbase-rest-server | 1.2.0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 1.2.0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 1.0.0-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-4 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-6 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.1 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.143 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.143 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| webserver | 2,4 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.8 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.8 | ZooKeeper client en ligne de commande. | 

## Classifications de configuration 4.6.0
<a name="emr-460-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.6.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 4.5.0
<a name="emr-450-release"></a>

## Versions de l'application 4.5.0
<a name="emr-450-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), et [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | 1,1,27 | 1,1,27 | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.6.0 | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-4 | 1.0.0-amzn-3 |  -  |  -  | 
| Hadoop | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 
| Hive | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.1 | 0.11.0 | 0.11.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.140 | 0.136 | 0.130 | 0.125 | 
| Spark | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## notes de publication de la version 4.5.0
<a name="emr-450-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.5.0.

Date de parution : 4 avril 2016

**Caractéristiques**
+ Mise à niveau vers Spark 1.6.1
+ Mise à niveau vers Hadoop 2.7.2
+ Mise à niveau vers Presto 0.140
+ Ajout de la AWS KMS prise en charge du chiffrement côté serveur Amazon S3.

**Problèmes connus résolus depuis les versions précédentes**
+ Résolution d'un problème où les serveurs MySQL et Apache ne démarraient pas après le redémarrage d'un nœud. 
+ Résolution d'un problème où IMPORT ne fonctionnait pas correctement avec les tables non partitionnées stockées dans Amazon S3
+ Résolution d'un problème lié à Presto où le répertoire intermédiaire devait être `/mnt/tmp` au lieu de `/tmp` lors de l'écriture dans des tables Hive.

## Versions des composants 4.5.0
<a name="emr-450-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.2.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.5.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.2-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.2-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.2-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.2-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.2-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.2-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hcatalog-client | 1.0.0-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-4 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-5 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.1 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.140 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.140 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| webserver | 2,4 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 

## 4.5.0 classifications de configuration
<a name="emr-450-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.5.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 

# Amazon EMR version 4.4.0
<a name="emr-440-release"></a>

## Versions de l'application 4.4.0
<a name="emr-440-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), et [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | 1,1,27 | Non suivie | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.6.0 |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-3 |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 
| Hive | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.0 | 0.11.0 | 0.11.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.0.1 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.136 | 0.130 | 0.125 | 0.119 | 
| Spark | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## notes de publication de la version 4.4.0
<a name="emr-440-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.4.0.

Date de parution : 14 mars 2016

**Caractéristiques**
+ Ajouté HCatalog 1.0.0
+ Ajout de Sqoop-Sandbox 1.4.6
+ Mise à niveau vers Presto 0.136
+ Mise à niveau vers Zeppelin 0.5.6
+ Mise à niveau vers Mahout 0.11.1
+ `dynamicResourceAllocation` activé par défaut.
+ Ajout d'un tableau de toutes les classifications de configuration pour la version. Pour en savoir plus, consultez le tableau Classifications des configurations dans [Configuration des applications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html).

**Problèmes connus résolus depuis les versions précédentes**
+ Correction d'un problème à cause duquel le `maximizeResourceAllocation` paramètre ne réservait pas suffisamment de mémoire pour les ApplicationMaster démons YARN.
+ Résolution d'un problème rencontré avec un DNS personnalisé. Si des entrées dans `resolve.conf` précèdent les entrées personnalisées fournies, les entrées personnalisées ne peuvent pas être résolues. Ce comportement était affecté par des clusters dans un VPC dans lequel le serveur de noms VPC par défaut était inséré comme première entrée dans `resolve.conf`.
+ Résolution d'un problème où la version Python par défaut passait à la version 2.7 et boto n'était pas installé pour cette version.
+ Résolution d'un problème où des conteneurs YARN et des applications Spark généraient un fichier rdd (round robin database) unique Ganglia, si bien que le premier disque attaché à l'instance se remplissait. En raison de ce correctif, les métriques de niveau conteneur YARN ont été désactivées et les métriques de niveau application Spark ont été désactivées.
+ Résolution d'un problème dans le transmetteur de journaux où celui-ci supprimait tous les dossiers de journal vides. De ce fait, l'interface de ligne de commande Hive ne pouvait pas journaliser, car le transmetteur de journaux supprimait le dossier `user` vide sous `/var/log/hive`.
+ Résolution d'un problème affectant les importations Hive qui avait une incidence sur le partitionnement et entraînait une erreur lors de l'importation.
+ Résolution d'un problème où EMRFS et s3-dist-cp ne géraient pas correctement les noms de compartiment qui contenaient des points.
+ Modification d'un comportement dans EMRFS de sorte que dans les compartiments activés pour la gestion des versions, le fichier marqueur `_$folder$` ne soit pas créé en permanence, ce qui peut contribuer à l'amélioration des performances de tels compartiments.
+ Modification d'un comportement dans EMRFS pour ne pas utiliser pas des fichiers d'instruction à l'exception des cas où le chiffrement côté client est activé. Si vous souhaitez supprimer des fichiers d'instruction tout en utilisant le chiffrement côté client, vous pouvez définir la propriété d'emrfs-site.xml `fs.s3.cse.cryptoStorageMode.deleteInstructionFiles.enabled` sur true. 
+ Modification de l'agrégation de journaux YARN pour conserver les journaux dans la destination d'agrégation pendant deux jours. La destination par défaut est le stockage HDFS de votre cluster. Si vous souhaitez modifier cette durée, remplacez la valeur `yarn.log-aggregation.retain-seconds` à l'aide de la classification de configuration `yarn-site` lorsque vous créez votre cluster. Comme toujours, vous pouvez enregistrer vos journaux d'applications dans Amazon S3 à l'aide du paramètre `log-uri` lorsque vous créez votre cluster.

**Correctifs appliqués**
+ [HIVE-9655](https://issues.apache.org/jira/browse/HIVE-9655)
+ [HIVE-9183](https://issues.apache.org/jira/browse/HIVE-9183)
+ [HADOOP-12810](https://issues.apache.org/jira/browse/HADOOP-12810)

## Versions des composants 4.4.0
<a name="emr-440-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.2.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.4.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.1-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.1-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.1-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.1-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.1-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.1-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.1-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.1-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.1-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hcatalog-client | 1.0.0-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 1.0.0-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 1.0.0-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 1.0.0-amzn-3 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-5 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.1 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.136 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.136 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. | 
| webserver | 2,4 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.6-incubating | Portable basé sur le web qui permet l'analyse de données interactives. | 

## 4.4.0 classifications de configuration
<a name="emr-440-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.4.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j | Modifiez les valeurs dans HCatalog HCat log4j.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 

# Amazon EMR version 4.3.0
<a name="emr-430-release"></a>

## Versions de l'application 4.3.0
<a name="emr-430-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), et [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | Non suivie | Non suivie | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## notes de publication de la version 4.3.0
<a name="emr-430-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.3.0.

Date de parution : 19 janvier 2016

**Caractéristiques**
+ Mise à niveau vers Hadoop 2.7.1
+ Mise à niveau vers Spark 1.6.0
+ Mise à niveau de Ganglia vers la version 3.7.2 
+ Mise à niveau vers de Presto vers la version 0.130
+ Amazon EMR a apporté quelques modifications au paramètre `spark.dynamicAllocation.enabled` lorsque celui-ci est défini sur true ; la valeur par défaut est false. Lorsque ce paramètre est défini sur true, cela a un effet sur les valeurs par défaut définies par le paramètre `maximizeResourceAllocation`.
  + Si `spark.dynamicAllocation.enabled` est défini sur true, `spark.executor.instances` n'est pas défini par `maximizeResourceAllocation`.
  + Le paramètre `spark.driver.memory` est désormais configuré en fonction des types d'instances du cluster d'une manière similaire à la façon dont `spark.executors.memory` est défini. Cependant, étant donné que l'application de pilote Spark peut s'exécuter soit sur le maître, soit sur une des instances principales (par exemple, dans le client YARN et les modes cluster, respectivement), le paramètre `spark.driver.memory` est défini en fonction du type d'instance du plus petit des types d'instances entre ces deux groupes d'instances.
  + Le paramètre `spark.default.parallelism` est désormais défini sur deux fois le nombre de cœurs de processeurs disponibles pour les conteneurs YARN. Dans les versions précédentes, c'était la moitié de cette valeur.
  + Les calculs de la surcharge de mémoire réservée pour les processus Spark YARN ont été ajustés pour être plus précis, ce qui se traduit par une petite augmentation de la quantité de mémoire disponible pour Spark (c'est-à-dire, `spark.executor.memory`).

**Problèmes connus résolus depuis les versions précédentes**
+ L'agrégation de journaux YARN est maintenant activée par défaut.
+ Correction d'un problème où les journaux ne pouvaient pas être transmis vers le compartiment de journaux Amazon S3 pour le cluster lorsque l'agrégation de journaux YARN était activée.
+ Les tailles de conteneur YARN ont maintenant un nouveau minimum de 32 sur tous les types de nœuds.
+ Correction d'un problème lié à Ganglia qui provoquait un excès de disque I/O sur le nœud principal dans les grands clusters.
+ Résolution d'un problème qui empêchait les journaux des applications d'être transmis à Amazon S3 lorsqu'un cluster s'arrêtait.
+ Résolution d'un problème dans l'interface de ligne de commande EMRFS qui entraînait l'échec de certaines commandes.
+ Correction d'un problème lié à Zeppelin qui empêchait le chargement des dépendances dans le sous-jacent. SparkContext
+ Résolution d'un problème provoqué par une tentative de redimensionnement pour ajouter des instances. 
+ Résolution d'un problème dans Hive où CREATE TABLE AS SELECT effectuait des appels de liste excessifs vers Amazon S3. 
+ Résolution d'un problème où les grands clusters n'étaient pas provisionnés correctement lorsque Hue, Oozie et Ganglia étaient installés.
+ Résolution d'un problème dans s3-dist-cp où un code de sortie zéro était renvoyé même en cas d'échec avec une erreur.

## Versions des composants 4.3.0
<a name="emr-430-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.1.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.3.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.7.1-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.7.1-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.7.1-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.7.1-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.7.1-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.7.1-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.7.1-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.7.1-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.7.1-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hive-client | 1.0.0-amzn-2 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-5 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.130 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.130 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.6.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.6.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.6.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.6.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| webserver | 2,4 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.5-incubating-amzn-1 | Portable basé sur le web qui permet l'analyse de données interactives. | 

## 4.3.0 classifications de configuration
<a name="emr-430-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.3.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 

# Amazon EMR version 4.2.0
<a name="emr-420-release"></a>

## Versions de l'application 4.2.0
<a name="emr-420-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), et [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | Non suivie | Non suivie | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## notes de publication de la version 4.2.0
<a name="emr-420-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 4.2.0.

Date de parution : 18 novembre 2015

**Caractéristiques**
+ Ajout de la prise en charge de Ganglia
+ Mise à niveau vers Spark 1.5.2
+ Mise à niveau vers Presto 0.125
+ Mise à niveau d'Oozie vers la version 4.2.0
+ Mise à niveau de Zeppelin vers la version 0.5.5
+ Mise à niveau de la AWS SDK pour Java version 1.10.27

**Problèmes connus résolus depuis les versions précédentes**
+ Résolution d'un problème où l'interface de ligne de commande EMRFS n'utilisait pas le nom de table de métadonnées par défaut.
+ Résolution d'un problème rencontré lors de l'utilisation de tables basée sur ORC dans Amazon S3.
+ Résolution d'un problème rencontré avec une incompatibilité de version Python dans la configuration de Spark.
+ Résolution d'un problème où un état de nœud YARN n'était pas signalé en raison de problèmes de DNS pour des clusters dans un VPC.
+ Correction d'un problème rencontré lorsque YARN mettait des nœuds hors service, ce qui entraînait des applications bloquées ou l'incapacité de planifier de nouvelles applications.
+ Résolution d'un problème rencontré lorsque des clusters prenaient fin avec l'état TIMED\$1OUT\$1STARTING.
+ Résolution d'un problème rencontré lors de l'inclusion de la dépendance EMRFS Scala dans d'autres versions. La dépendance Scala a été supprimée.

## Versions des composants 4.2.0
<a name="emr-420-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.0.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.2.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.6.0 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.6.0 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.5.10 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 2.6.0-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.6.0-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.6.0-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.6.0-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.6.0-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.6.0-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.6.0-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.6.0-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.6.0-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hive-client | 1.0.0-amzn-1 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-5 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.125 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.125 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.5.2 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.5.2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.5.2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.5.2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| webserver | 2,4 | Serveur HTTP Apache. | 
| zeppelin-server | 0.5.5-incubating-amzn-0 | Portable basé sur le web qui permet l'analyse de données interactives. | 

## Classifications de configuration 4.2.0
<a name="emr-420-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.2.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 

# Amazon EMR version 4.1.0
<a name="emr-410-release"></a>

## Versions de l'application 4.1.0
<a name="emr-410-app-versions"></a>

Cette version inclut les applications suivantes : [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), et [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | Non suivie | Non suivie | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## notes de publication de la version 4.1.0
<a name="emr-410-relnotes"></a>

## Versions des composants 4.1.0
<a name="emr-410-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.0.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.1.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| hadoop-client | 2.6.0-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.6.0-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 2.6.0-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 2.6.0-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.6.0-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 2.6.0-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 2.6.0-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.6.0-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.6.0-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hive-client | 1.0.0-amzn-1 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hue-server | 3.7.1-amzn-4 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| mahout-client | 0.11.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| oozie-client | 4.0.1 | Client de ligne de commande Oozie. | 
| oozie-server | 4.0.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| presto-coordinator | 0.119 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.119 | Service pour exécuter les éléments d'une requête. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.5.0 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.5.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.5.0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.5.0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| zeppelin-server | 0.6.0-incubating-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 

## 4.1.0 classifications de configuration
<a name="emr-410-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.1.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 

# Amazon EMR version 4.0.0
<a name="emr-400-release"></a>

## Versions de l'application 4.0.0
<a name="emr-400-app-versions"></a>

Cette version inclut les applications suivantes : [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), et [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,27 | 1,1,27 | Non suivie | Non suivie | 
| Python | Non suivie | Non suivie | Non suivie | Non suivie | 
| Scala | Non suivie | Non suivie | Non suivie | Non suivie | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## notes de publication de la version 4.0.0
<a name="emr-400-relnotes"></a>

## Versions des composants 4.0.0
<a name="emr-400-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.0.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.0.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emrfs | 2.0.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| hadoop-client | 2.6.0-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 2.6.0-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-namenode | 2.6.0-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-httpfs-server | 2.6.0-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-mapred | 2.6.0-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 2.6.0-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 2.6.0-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hive-client | 1.0.0-amzn-0 | Client de ligne de commande Hive. | 
| hive-metastore-server | 1.0.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server | 1.0.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| mahout-client | 0.10.0 | Bibliothèque pour la technologie Machine Learning. | 
| mysql-server | 5.5 | Serveur de base de données MySQL. | 
| pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. | 
| spark-client | 1.4.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 1.4.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 1.4.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 1.4.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 

## Classifications de configuration 4.0.0
<a name="emr-400-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-4.0.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | 
| hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 

# Versions AMI 2.x et 3.x d'Amazon EMR
<a name="emr-release-3x"></a>

**Note**  
AWS met à jour la configuration TLS pour tous les points de terminaison d' AWS API vers une version minimale de TLS 1.2. Les versions 3.10 et antérieures d'Amazon EMR ne prennent en charge que les connexions TLS 1.0/1.1. Après le 4 décembre 2023, vous ne pourrez plus créer de clusters avec Amazon EMR 3.10 ou version antérieure.  
Si vous utilisez Amazon EMR 3.10 ou une version antérieure, nous vous recommandons de tester et de migrer immédiatement vos charges de travail vers la dernière version d'Amazon EMR. Pour plus d'informations, consultez le [Blog sur la sécurité d'AWS](https://aws.amazon.com/blogs//security/tls-1-2-required-for-aws-endpoints/).

Les versions Amazon EMR 2.x and 3.x, appelées *versions AMI*, sont disponibles pour les solutions pré-existantes qui en ont besoin pour des raisons de compatibilité. Il est déconseillé de créer de nouveaux clusters ou de nouvelles solutions avec ces versions. Elles ne sont pas dotées des fonctions présentes dans les versions plus récentes et contiennent des packages d'application obsolètes.

Nous vous recommandons d'utiliser la version la plus récente d'Amazon EMR pour créer des solutions.

Il existe des différences significatives entre les versions 2.x et 3.x et les versions récentes d'Amazon EMR. Ces différences s'appliquent à différents domaines, comme la création et la configuration d'un cluster, ou encore les ports et la structure de répertoire des applications sur le cluster.

Cette section tente de répertorier les différences les plus importantes pour Amazon EMR, ainsi que les différences spécifiques portant sur la gestion et la configuration des applications. Elle n'est pas exhaustive. Si vous créez et utilisez des clusters dans les versions 2.x ou 3.x, il se peut que vous rencontriez des différences non répertoriées dans cette section.

**Topics**
+ [

# Création d'un cluster avec des versions AMI plus récentes d'Amazon EMR
](emr-3x-create.md)
+ [

# Installation d'applications avec des versions AMI antérieures d'Amazon EMR
](emr-3x-install-apps.md)
+ [

# Personnalisation de la configuration des clusters et des applications avec des versions AMI antérieures d'Amazon EMR
](emr-3x-customizeappconfig.md)
+ [

# Caractéristiques de l'application Hive pour les versions AMI antérieures d'Amazon EMR
](emr-3x-hive.md)
+ [

# HBase spécificités de l'application pour les versions antérieures de l'AMI d'Amazon EMR
](emr-3x-hbase.md)
+ [

# Caractéristiques de l'application Pig pour les versions AMI antérieures d'Amazon EMR
](emr-3x-pig.md)
+ [

# Caractéristiques de l'application Spark pour les versions AMI antérieures d'Amazon EMR
](emr-3x-spark.md)
+ [

# Différences entre l'DistCp utilitaire S3 et les versions antérieures de l'AMI d'Amazon EMR
](emr-3x-s3distcp.md)

# Création d'un cluster avec des versions AMI plus récentes d'Amazon EMR
<a name="emr-3x-create"></a>

Les versions Amazon EMR 2.x et 3.x sont référencées par la version AMI. À partir des versions 4.0.0 et ultérieures d'Amazon EMR, les publications sont référencées par version, à l'aide d'une étiquette de version telle que `emr-5.11.0`. Ce changement est particulièrement visible lorsque vous créez un cluster à l'aide du AWS CLI ou par programmation.

Lorsque vous utilisez le AWS CLI pour créer un cluster à l'aide d'une version de version AMI, utilisez l'`--ami-version`option, par exemple,`--ami-version 3.11.0`. De nombreuses options, fonctions et applications introduites dans les versions 4.0.0 et ultérieures d'Amazon EMR ne sont pas disponibles lorsque vous spécifiez une option `--ami-version`. Pour plus d'informations, consultez [create-cluster](https://docs.aws.amazon.com/cli/latest/reference/emr/create-cluster.html) dans la *Référence des commandes de la AWS CLI *. 

L'exemple de AWS CLI commande suivant lance un cluster à l'aide d'une version AMI.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Test cluster" --ami-version 3.11.0 \
--applications Name=Hue Name=Hive Name=Pig \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-groups InstanceGroupType=MASTER,InstanceCount=1,\
InstanceType=m3.xlarge InstanceGroupType=CORE,InstanceCount=2,\
InstanceType=m3.xlarge --bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hadoop,\
Name="Configuring infinite JVM reuse",Args=["-m","mapred.job.reuse.jvm.num.tasks=-1"]
```

Par programmation, toutes les versions d'Amazon EMR utilisent l'action `RunJobFlowRequest` de l'API EMR pour créer des clusters. Dans l'exemple suivant, le code Java crée un cluster à l'aide de la version AMI 3.11.0.

```
RunJobFlowRequest request = new RunJobFlowRequest()
			.withName("AmiVersion Cluster")
			.withAmiVersion("3.11.0")
			.withInstances(new JobFlowInstancesConfig()
				.withEc2KeyName("myKeyPair")
				.withInstanceCount(1)
				.withKeepJobFlowAliveWhenNoSteps(true)
				.withMasterInstanceType("m3.xlarge")
				.withSlaveInstanceType("m3.xlarge");
```

L'appel `RunJobFlowRequest` suivant utilise quant à lui une étiquette de version :

```
RunJobFlowRequest request = new RunJobFlowRequest()
			.withName("ReleaseLabel Cluster")
			.withReleaseLabel("emr-7.12.0")
			.withInstances(new JobFlowInstancesConfig()
				.withEc2KeyName("myKeyPair")
				.withInstanceCount(1)
				.withKeepJobFlowAliveWhenNoSteps(true)
				.withMasterInstanceType("m3.xlarge")
				.withSlaveInstanceType("m3.xlarge");
```

## Configuration de la taille du cluster
<a name="emr-3x-cluster-size"></a>

Lorsque votre cluster s'exécute, Hadoop détermine le nombre de tâches de mappeur et de réducteur nécessaires pour traiter les données. Les clusters les plus grands doivent avoir plus de tâches pour une meilleure utilisation des ressources et une plus courte durée de traitement. En règle générale, un cluster EMR conserve la même taille tout au long de sa vie ; vous définissez le nombre de tâches lorsque vous créez le cluster. Lorsque vous redimensionnez un cluster en cours d'exécution, vous pouvez modifier le traitement au cours de l'exécution du cluster. Par conséquent, au lieu d'utiliser un nombre fixe de tâches, vous pouvez modifier le nombre de tâches au cours de la vie du cluster. Il existe deux options de configuration qui vous aideront à définir le nombre idéal de tâches :
+ `mapred.map.tasksperslot`
+ `mapred.reduce.tasksperslot`

Vous pouvez définir ces deux options dans le fichier `mapred-conf.xml`. Lorsque vous soumettez un travail au cluster, le client du travail vérifie le nombre total actuel d'emplacements de mappage et de réduction disponibles sur l'ensemble du cluster. Le client du travail utilise alors les équations suivantes pour définir le nombre de tâches : 
+ `mapred.map.tasks` =` mapred.map.tasksperslot` \$1 emplacements de mappage dans le cluster
+ `mapred.reduce.tasks` = `mapred.reduce.tasksperslot` \$1 emplacements de réduction dans le cluster

Le client du travail lit uniquement le paramètre `tasksperslot` si le nombre de tâches n'est pas configuré. Vous pouvez remplacer le nombre de tâches à tout moment, pour tous les clusters via une action d'amorçage ou individuellement, travail par travail, en ajoutant une étape pour modifier la configuration. 

Amazon EMR supporte les défaillances des nœuds de tâches et continue l'exécution du cluster même si un nœud de tâches cesse d'être disponible. Amazon EMR alloue automatiquement des nœuds de tâches supplémentaires pour remplacer les nœuds défaillants. 

Vous pouvez avoir un nombre différent de nœuds de tâches pour chaque étape du cluster. Vous pouvez également ajouter une étape à un cluster en cours d'exécution pour modifier le nombre de nœuds de tâches. Étant donné que toutes les étapes sont garanties de s'exécuter de manière séquentielle par défaut, vous pouvez spécifier le nombre de nœuds de tâches en cours d'exécution pour n'importe quelle étape. 

# Installation d'applications avec des versions AMI antérieures d'Amazon EMR
<a name="emr-3x-install-apps"></a>

Lorsque vous utilisez une version AMI, les applications sont installées de différentes manières, notamment en utilisant le `NewSupportedProducts` paramètre de l'[RunJobFlow](https://docs.aws.amazon.com/ElasticMapReduce/latest/API/API_RunJobFlow.html)action, en utilisant les actions d'amorçage et en utilisant l'action [Step](https://docs.aws.amazon.com/ElasticMapReduce/latest/API/API_Step.html).

# Personnalisation de la configuration des clusters et des applications avec des versions AMI antérieures d'Amazon EMR
<a name="emr-3x-customizeappconfig"></a>

Amazon EMR version 4.0.0 a introduit une méthode simplifiée pour configurer des applications à l'aide de classifications de configuration. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md). Lorsque vous utilisez une version AMI, vous configurez les applications à l'aide des actions d'amorçage et des arguments que vous transmettez. Par exemple, les actions d'amorçage `configure-hadoop` et `configure-daemons` définissent les propriétés des environnements Hadoop et YARN telles que `--namenode-heap-size`. Dans les versions plus récentes, ces propriétés sont configurées à l'aide des classifications de configuration `hadoop-env` et `yarn-env`. Pour les actions de bootstrap qui exécutent des configurations courantes, consultez le [emr-bootstrap-actions référentiel sur Github](https://github.com/awslabs/emr-bootstrap-actions).

Les tableaux suivants associent les actions d'amorçage aux classifications de configuration correspondantes dans les versions plus récentes d'Amazon EMR.


**Hadoop**  

| Nom du fichier d'application concerné | Action d'amorçage de la version d'AMI | Classification de configuration | 
| --- | --- | --- | 
| core-site.xml  | configure-hadoop -c  | core-site | 
| log4j.properties  | configure-hadoop -l  | hadoop-log4j | 
| hdfs-site.xml  | configure-hadoop -s  | hdfs-site  | 
| N/A | s/o | hdfs-encryption-zones | 
| mapred-site.xml  | configure-hadoop -m  | mapred-site | 
| yarn-site.xml  | configure-hadoop -y  | yarn-site | 
| httpfs-site.xml  | configure-hadoop -t  | httpfs-site | 
| capacity-scheduler.xml  | configure-hadoop -z  | capacity-scheduler | 
| yarn-env.sh  | configure-daemons --resourcemanager-opts | yarn-env | 


**Hive**  

| Nom du fichier d'application concerné | Action d'amorçage de la version d'AMI | Classification de configuration | 
| --- | --- | --- | 
| hive-env.sh | N/A | hive-env | 
| hive-site.xml | hive-script --install-hive-site \$1\$1MY\$1HIVE\$1SITE\$1FILE\$1 | hive-site | 
| hive-exec-log4j.properties | N/A | hive-exec-log4j | 
| hive-log4j.properties | s/o | hive-log4j | 


**EMRFS**  

| Nom du fichier d'application concerné | Action d'amorçage de la version d'AMI | Classification de configuration | 
| --- | --- | --- | 
| emrfs-site.xml | configure-hadoop -e | emrfs-site | 
| N/A | s3get -s s3://custom-provider.jar -d /usr/share/aws/emr/auxlib/ | emrfs-site (avec le nouveau paramètre fs.s3.cse.encryptionMaterialsProvider.uri) | 

Pour obtenir une liste de toutes les classifications, consultez [Configuration des applications](emr-configure-apps.md).

## Variables d'environnement d'application
<a name="emr-3x-appenv"></a>

Lorsque vous utilisez une version AMI, un script `hadoop-user-env.sh` est utilisé avec l'action d'amorçage `configure-daemons` pour configurer l'environnement Hadoop. Les actions suivantes sont incluses dans le script :

```
#!/bin/bash 
export HADOOP_USER_CLASSPATH_FIRST=true; 
echo "HADOOP_CLASSPATH=/path/to/my.jar" >> /home/hadoop/conf/hadoop-user-env.sh
```

Dans Amazon EMR version 4.x, vous procédez de la même façon en utilisant la classification de configuration `hadoop-env`, comme illustrée dans l'exemple suivant :

```
[ 
      { 
         "Classification":"hadoop-env",
         "Properties":{ 

         },
         "Configurations":[ 
            { 
               "Classification":"export",
               "Properties":{ 
                  "HADOOP_USER_CLASSPATH_FIRST":"true",
                  "HADOOP_CLASSPATH":"/path/to/my.jar"
               }
            }
         ]
      }
   ]
```

Autre exemple : l'utilisation de `configure-daemons` et la transmission de `--namenode-heap-size=2048` et `--namenode-opts=-XX:GCTimeRatio=19` équivalent aux classifications de configuration suivantes.

```
[ 
      { 
         "Classification":"hadoop-env",
         "Properties":{ 

         },
         "Configurations":[ 
            { 
               "Classification":"export",
               "Properties":{ 
                  "HADOOP_DATANODE_HEAPSIZE":  "2048",
           	"HADOOP_NAMENODE_OPTS":  "-XX:GCTimeRatio=19"
               }
            }
         ]
      }
   ]
```

D'autres variables de l'environnement d'application ne sont plus définies dans `/home/hadoop/.bashrc`. Au lieu de cela, elles sont principalement définies dans les fichiers `/etc/default` par composant ou par application, par exemple, `/etc/default/hadoop`. Les scripts wrapper `/usr/bin/` installés par l'application RPMs peuvent également définir des variables d'environnement supplémentaires avant d'impliquer le script bin lui-même.

## Ports de service
<a name="emr-3x-serviceports"></a>

Lorsque vous employez une version AMI, certains services utilisent des ports personnalisés.


**Modifications des paramètres de port**  

| Paramètre | Version AMI 3.x | Open source par défaut | 
| --- | --- | --- | 
| fs.default.name | hdfs://emrDeterminedIP:9000 | par défaut (hdfs : emrDeterminedIP //:8020)  | 
| dfs.datanode.address | 0.0.0.0:9200 | valeur par défaut (0.0.0.0:50010)  | 
| dfs.datanode.http.address | 0.0.0.0:9102 | valeur par défaut (0.0.0.0:50075)  | 
| dfs.datanode.https.address | 0.0.0.0:9402 | valeur par défaut (0.0.0.0:50475) | 
| dfs.datanode.ipc.address | 0.0.0.0:9201 | valeur par défaut (0.0.0.0:50020) | 
| dfs.http.address | 0.0.0.0:9101 | valeur par défaut (0.0.0.0:50070)  | 
| dfs.https.address | 0.0.0.0:9202 | valeur par défaut (0.0.0.0:50470)  | 
| dfs.secondary.http.address | 0.0.0.0:9104 | valeur par défaut (0.0.0.0:50090) | 
| yarn.nodemanager.address | 0.0.0.0:9103 | valeur par défaut (\$1\$1yarn.nodemanager.hostname\$1:0)  | 
| yarn.nodemanager.localizer.address  | 0.0.0.0:9033 | valeur par défaut (\$1\$1yarn.nodemanager.hostname\$1:8040) | 
| yarn.nodemanager.webapp.address | 0.0.0.0:9035 | valeur par défaut (\$1\$1yarn.nodemanager.hostname\$1:8042) | 
| yarn.resourcemanager.address | emrDeterminedIP:9022 | valeur par défaut (\$1\$1yarn.resourcemanager.hostname\$1:8032) | 
| yarn.resourcemanager.admin.address | emrDeterminedIP:9025 | valeur par défaut (\$1\$1yarn.resourcemanager.hostname\$1:8033) | 
| yarn.resourcemanager.resource-tracker.address | emrDeterminedIP:9023 | valeur par défaut (\$1\$1yarn.resourcemanager.hostname\$1:8031) | 
| yarn.resourcemanager.scheduler.address | emrDeterminedIP:9024 | valeur par défaut (\$1\$1yarn.resourcemanager.hostname\$1:8030) | 
| yarn.resourcemanager.webapp.address | 0.0.0.0:9026  | valeur par défaut (\$1\$1yarn.resourcemanager.hostname\$1:8088) | 
| yarn.web-proxy.address | emrDeterminedIP:9046  | valeur par défaut (no-value)  | 
| yarn.resourcemanager.hostname | 0.0.0.0 (par défaut)  | emrDeterminedIP | 

**Note**  
*emrDeterminedIP*Il s'agit d'une adresse IP générée par Amazon EMR.

## Utilisateurs
<a name="emr-3x-users"></a>

Lorsque vous utilisez une version AMI, l'utilisateur `hadoop` exécute tous les processus et possède tous les fichiers. Dans Amazon EMR 4.0.0 et versions ultérieures, les utilisateurs existent au niveau de l'application et des composants.

## Séquence d'installation, artefacts installés et emplacement des fichiers journaux
<a name="emr-3x-directories"></a>

Lorsque vous utilisez une version AMI, les artefacts de l'application et leurs répertoires de configuration sont installés dans le répertoire `/home/hadoop/application`. Par exemple, si vous avez installé Hive, le répertoire est `/home/hadoop/hive`. A partir des versions 4.0.0 et ultérieures d'Amazon EMR, les artefacts de l'application sont installés dans le répertoire `/usr/lib/application`. Lorsque vous utilisez une version AMI, les fichiers journaux sont situés à différents emplacements. Le tableau ci-dessous répertorie ces emplacements.


**Modification des emplacements des journaux sur Amazon S3**  

| Démon ou application | Emplacement du répertoire | 
| --- | --- | 
| instance-state | noeud/ /instance-state/ instance-id | 
| hadoop-hdfs-namenode | démons//.log instance-id hadoop-hadoop-namenode | 
| hadoop-hdfs-datanode | démons//.log instance-id hadoop-hadoop-datanode | 
| fil de hadoop () ResourceManager | démons//instance-idyarn-hadoop-resourcemanager | 
| hadoop-yarn (serveur Proxy) | démons//instance-idyarn-hadoop-proxyserver | 
| mapred-historyserver | démons//instance-id | 
| httpfs | daemons/ /httpfs.log instance-id | 
| hive-server | noeud/ /hive-server/hive-server.log instance-id | 
| hive-metastore | noeud/ /apps/hive.log instance-id | 
| Interface de ligne de commande Hive | noeud/ /apps/hive.log instance-id | 
| Journaux utilisateur et journaux de conteneur des applications YARN | task-attempts/ | 
| Mahout | N/A | 
| Pig | N/A | 
| spark-historyserver | N/A | 
| Fichiers d'historique des tâches mapreduce | jobs/ | 

## Exécuteur de commandes
<a name="emr-differences-commandrunner"></a>

Lorsque vous utilisez une version AMI, de nombreux scripts ou programmes comme `/home/hadoop/contrib/streaming/hadoop-streaming.jar` ne sont pas placés dans l'environnement du chemin d'accès de connexion au shell, ce qui signifie que vous devez spécifier le chemin d'accès complet lorsque vous utilisez un fichier jar (command-runner.jar ou script-runner.jar, par exemple) pour exécuter les scripts. Le fichier `command-runner.jar` se trouve sur l'image AMI, si bien qu'il n'est pas nécessaire de connaître un URI complet comme c'était le cas avec `script-runner.jar`. 

## Facteur de réplication
<a name="emr-3x-replication"></a>

Le facteur de réplication vous permet de configurer à quel moment démarrer une machine virtuelle Java. Vous pouvez démarrer une nouvelle JVM Hadoop pour chaque tâche, ce qui permet une meilleure isolation des tâches, ou vous pouvez les partager JVMs entre les tâches, ce qui permet de réduire les frais de structure. Si vous traitez un grand nombre de petits fichiers, il est logique de réutiliser la JVM plusieurs fois pour amortir les coûts de démarrage. Toutefois, si chaque tâche prend du temps ou traite une grande quantité de données, vous pouvez choisir de ne pas réutiliser la JVM, afin de vous assurer que l'ensemble de la mémoire est libérée pour les tâches suivantes. Lorsque vous utilisez une version AMI, vous pouvez personnaliser le facteur de réplication à l'aide de l'action d'amorçage `configure-hadoop` pour définir la propriété `mapred.job.reuse.jvm.num.tasks`. 

L'exemple suivant illustre la définition du facteur de réutilisation de la machine virtuelle Java pour une réutilisation infinie de cette dernière.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Test cluster" --ami-version 3.11.0 \
--applications Name=Hue Name=Hive Name=Pig \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-groups InstanceGroupType=MASTER,InstanceCount=1,InstanceType=m3.xlarge \
InstanceGroupType=CORE,InstanceCount=2,InstanceType=m3.xlarge \
--bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hadoop,\
Name="Configuring infinite JVM reuse",Args=["-m","mapred.job.reuse.jvm.num.tasks=-1"]
```

# Caractéristiques de l'application Hive pour les versions AMI antérieures d'Amazon EMR
<a name="emr-3x-hive"></a>

## Les fichiers journaux
<a name="emr-3x-hive-log-files"></a>

Lorsque vous utilisez les versions AMI 2.x et 3.x d'Amazon EMR, les fichiers journaux Hive sont enregistrés dans `/mnt/var/log/apps/`. La version de Hive que vous exécutez détermine le nom du fichier journal, comme illustré dans le tableau suivant. Cela permet de prendre en charge les versions simultanées de Hive. 


| Version de Hive | Nom du fichier journal | 
| --- | --- | 
| 0.13.1 | hive.log  A partir de cette version, Amazon EMR utilise un nom de fichier non versionné, `hive.log`. Les versions mineures partagent le même emplacement du journal que la version majeure.   | 
| 0.11.0 | hive\$10110.log   Les versions mineures de Hive 0.11.0, par exemple 0.11.0.1, partagent le même emplacement du fichier journal que Hive 0.11.0.   | 
| 0.8.1 | hive\$1081.log   Les versions mineures de Hive 0.8.1, par exemple Hive 0.8.1.1, partagent le même emplacement du fichier journal que Hive 0.8.1.   | 
| 0.7.1 | hive\$107\$11.log   Les versions mineures de Hive 0.7.1, par exemple Hive 0.7.1.3 et Hive 0.7.1.4, partagent le même emplacement du fichier journal que Hive 0.7.1.    | 
| 0.7 | hive\$107.log | 
| 0.5 | hive\$105.log | 
| 0.4 | hive.log | 

## Fonctionnalité de format d'entrée avec fractionnement
<a name="emr-3x-hive-split-input"></a>

Pour implémenter la fonctionnalité de format d'entrée avec fractionnement à l'aide des versions de Hive antérieures à 0.13.1 (versions AMI d'Amazon EMR antérieures à 3.11.0), utilisez les commandes suivantes :

```
hive> set hive.input.format=org.apache.hadoop.hive.ql.io.HiveCombineSplitsInputFormat;
hive> set mapred.min.split.size=100000000;
```

Cette fonctionnalité est devenue obsolète avec Hive 0.13.1. Pour profiter de la même fonctionnalité de format d'entrée avec fractionnement dans la version 3.11.0 AMI Amazon EMR, procédez comme suit :

```
set hive.hadoop.supports.splittable.combineinputformat=true;
```

## Ports de service Thrift
<a name="emr-3x-hive-thrift-service"></a>

 Thrift est une infrastructure RPC qui définit un format de sérialisation binaire compact utilisé pour conserver les structures de données afin de les analyser ultérieurement. Généralement, Hive configure le serveur pour qu'il fonctionne sur les ports suivants. 


| Version de Hive | Numéro de port | 
| --- | --- | 
| Hive 0.13.1 | 10 000 | 
| Hive 0.11.0 | 10004 | 
| Hive 0.8.1 | 10003 | 
| Hive 0.7.1 | 10002 | 
| Hive 0.7 | 10001 | 
| Hive 0.5 | 10 000 | 

 Pour plus d'informations sur les services thrift, consultez [http://wiki.apache.org/thrift/](http://wiki.apache.org/thrift/). 

## Utilisation de Hive pour récupérer des partitions
<a name="emr-3x-hive-recover-partition"></a>

Amazon EMR inclut une instruction du langage de requête Hive qui récupère les partitions d'une table depuis des données de table situées dans Amazon S3. L'exemple suivant en est une illustration. 

```
CREATE EXTERNAL TABLE (json string) raw_impression 
PARTITIONED BY (dt string) 
LOCATION 's3://elastic-mapreduce/samples/hive-ads/tables/impressions';
ALTER TABLE logs RECOVER PARTITIONS;
```

Les données et les répertoires de la partition doit être à l'emplacement spécifié dans la définition de table et doivent être nommées selon la convention Hive : par exemple, `dt=2009-01-01`. 

**Note**  
Après Hive 0.13.1, cette fonctionnalité est prise en charge en mode natif à l'aide de `msck repair table` et par conséquent la prise en charge de `recover partitions` n'est plus assurée. Pour plus d'informations, consultez [https://cwiki.apache. org/confluence/display/Hive/LanguageManual\$1DDL](https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL).

## Transmission d'une variable Hive à un script
<a name="emr-3x-hive-pass-variable"></a>

Pour transmettre une variable à une étape Hive à l'aide de AWS CLI, tapez la commande suivante, *myKey* remplacez-la par le nom de votre paire de clés EC2 et remplacez-la par le nom *amzn-s3-demo-bucket* de votre bucket. Dans cet exemple, `SAMPLE` est une valeur de variable précédée par le commutateur `-d`. Cette variable est définie dans le script Hive comme suit : `${SAMPLE}`.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Test cluster" --ami-version 3.9 \
--applications Name=Hue Name=Hive Name=Pig \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-type m3.xlarge --instance-count 3 \
--steps Type=Hive,Name="Hive Program",ActionOnFailure=CONTINUE,\
Args=[-f,s3://elasticmapreduce/samples/hive-ads/libs/response-time-stats.q,-d,\
INPUT=s3://elasticmapreduce/samples/hive-ads/tables,-d,OUTPUT=s3://amzn-s3-demo-bucket/hive-ads/output/,\
-d,SAMPLE=s3://elasticmapreduce/samples/hive-ads/]
```

## Spécification d'un emplacement de metastore externe
<a name="emr-3x-hive-external-metastore"></a>

La procédure suivante vous montre comment remplacer les valeurs de configuration par défaut pour l'emplacement du metastore Hive et démarrer un cluster en utilisant l'emplacement du metastore reconfiguré.

**Pour créer un metastore situé en dehors du cluster EMR**

1. Créez une base de données MySQL ou Aurora à l'aide d'Amazon RDS.

   Pour plus d'informations sur la façon de créer une base de données Amazon RDS, consultez [Mise en route sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.html).

1. Modifiez vos groupes de sécurité pour autoriser les connexions JDBC entre votre base de données et le groupe de sécurité **ElasticMapReduce-Master**.

   Pour plus d'informations sur la façon de modifier vos groupes de sécurité pour l'accès, consultez [Groupes de sécurité Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Overview.RDSSecurityGroups.html) dans le *Guide de l'utilisateur Amazon RDS*.

1. Définissez les valeurs de configuration JDBC dans `hive-site.xml` :

   1. Créez un fichier de configuration `hive-site.xml` contenant les éléments suivants :

      ```
      <configuration>
        <property>
          <name>javax.jdo.option.ConnectionURL</name>
          <value>jdbc:mariadb://hostname:3306/hive?createDatabaseIfNotExist=true</value>
          <description>JDBC connect string for a JDBC metastore</description>
        </property>
        <property>
          <name>javax.jdo.option.ConnectionUserName</name>
          <value>hive</value>
          <description>Username to use against metastore database</description>
        </property>
        <property>
          <name>javax.jdo.option.ConnectionPassword</name>
          <value>password</value>
          <description>Password to use against metastore database</description>
        </property>
      </configuration>
      ```

      *hostname*est l'adresse DNS de l'instance Amazon RDS qui exécute la base de données. *username*et *password* sont les informations d'identification de votre base de données. Pour plus d'informations sur la connexion aux instances de bases de données MySQL et Aurora, consultez les sections [Connexion à une instance de base de données exécutant le moteur de base de données MySQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_ConnectToInstance.html) et [Connexion à un cluster de bases de données Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.Connecting.html) dans le *Guide de l'utilisateur Amazon RDS*.

      Les pilotes JDBC sont installés par Amazon EMR. 
**Note**  
La propriété value ne doit pas contenir d'espaces ni de retours chariot. Elle doit figurer entièrement sur une seule ligne.

   1. Enregistrez votre fichier `hive-site.xml` dans un emplacement sur Amazon S3, tel que `s3://amzn-s3-demo-bucket/hive-site.xml`.

1. Créez un cluster, en spécifiant l'emplacement Amazon S3 du fichier `hive-site.xml` personnalisé.

   L'exemple de commande suivant illustre une AWS CLI commande qui effectue cette opération.
**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

   ```
   aws emr create-cluster --name "Test cluster" --ami-version 3.10 \
   --applications Name=Hue Name=Hive Name=Pig \
   --use-default-roles --ec2-attributes KeyName=myKey \
   --instance-type m3.xlarge --instance-count 3 \
   --bootstrap-actions Name="Install Hive Site Configuration",\
   Path="s3://region.elasticmapreduce/libs/hive/hive-script",\
   Args=["--base-path","s3://elasticmapreduce/libs/hive","--install-hive-site",\
   "--hive-site=s3://amzn-s3-demo-bucket/hive-site.xml","--hive-versions","latest"]
   ```

## Connexion à Hive à l'aide de JDBC
<a name="emr-3x-hive-jdbc"></a>

Pour vous connecter à Hive via JDBC, vous devez télécharger le pilote JDBC et installer un client SQL. L'exemple suivant montre comment utiliser SQL Workbench/J pour se connecter à Hive à l'aide de JDBC.

**Pour télécharger les pilotes JDBC**

1. Téléchargez et extrayez les pilotes correspondant aux versions de Hive auxquelles vous souhaitez accéder. La version de Hive varie en fonction de l'image AMI que vous choisissez lorsque vous créez un cluster Amazon EMR.
   + [Pilotes JDBC Hive 0.13.1 : JDBC\$11.0.4.1004.zip https://amazon-odbc-jdbc-drivers.s3.amazonaws.com/public/ AmazonHive](https://amazon-odbc-jdbc-drivers.s3.amazonaws.com/public/AmazonHiveJDBC_1.0.4.1004.zip)
   + Pilotes JDBC Hive 0.11.0 : [https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.11.0](https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.11.0)
   + Pilotes JDBC Hive 0.8.1 : [https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.8.1](https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.8.1)

1. Installez SQL Workbench/J. Pour plus d'informations, consultez la section [Installation et démarrage de SQL Workbench/J](http://www.sql-workbench.net/manual/install.html) dans le manuel d'utilisation de SQL Manual. Workbench/J 

1. Créez un tunnel SSH vers le nœud maître du cluster. Le port de connexion diffère en fonction de la version de Hive. Les exemples fournis dans les tableaux ci-dessous concernent les utilisateurs de Linux (commandes `ssh`) et les commandes PuTTY pour les utilisateurs de Windows  
**Commandes SSH Linux**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-hive.html)  
**Paramètres du tunnel PuTTY (Windows)**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-hive.html)

1. Ajoutez le pilote JDBC à SQL Workbench.

   1. Dans la boîte de dialogue **Select Connection Profile (Sélectionner le profil de connexion)**, sélectionnez **Manage Drivers (Gérer les pilotes)**. 

   1. Sélectionnez l'icône **Create a new entry (Créer une nouvelle saisie)** (page blanche).

   1. Dans le champ **Name (Nom)**, saisissez **Hive JDBC**.

   1. Pour **Library (Bibliothèque)**, cliquez sur l'icône **Select the JAR file(s) (Sélectionner le(s) fichier(s) JAR)**.

   1. Sélectionnez les fichiers JAR comme indiqué dans le tableau suivant.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-hive.html)

   1. Dans la boîte de dialogue **Please select one driver (Veuillez sélectionner un pilote)**, sélectionnez un pilote en vous conformant au tableau suivant, puis cliquez sur **OK**.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-hive.html)

1. Lorsque vous revenez à la boîte de dialogue **Select Connection Profile (Sélectionner le profil de connexion)**, vérifiez que le champ **Driver (Pilote)** est défini sur **Hive JDBC** et fournissez la chaîne de connexion JDBC dans le champ **URL**, en vous conformant au tableau suivant.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-hive.html)

   Si votre cluster utilise la version 3.3.1 d'AMI ou une version ultérieure, dans la boîte de dialogue **Select Connection Profile (Sélectionner le profil de connexion)**, tapez **hadoop** dans le champ **Username (Nom d'utilisateur)**.

# HBase spécificités de l'application pour les versions antérieures de l'AMI d'Amazon EMR
<a name="emr-3x-hbase"></a>

## HBase Versions prises en charge
<a name="emr-3x-hbase-versions"></a>


| HBase version | Version d'AMI | AWS CLI paramètres de configuration | HBase détails de la version | 
| --- | --- | --- | --- | 
| [0.94.18](https://svn.apache.org/repos/asf/hbase/branches/0.94/CHANGES.txt) | 3.1.0 et ultérieures |  `--ami-version 3.1` `--ami-version 3.2` `--ami-version 3.3` `--applications Name=HBase`  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-hbase.html)  | 
| [0.94.7](https://svn.apache.org/repos/asf/hbase/branches/0.94/CHANGES.txt) | 3.0-3.0.4 |  `--ami-version 3.0` `--applications Name=HBase`  | 
| [0.92](https://svn.apache.org/repos/asf/hbase/branches/0.92/CHANGES.txt) | 2.2 et ultérieures |  `--ami-version 2.2 or later` `--applications Name=HBase`  | 

## HBase prérequis du cluster
<a name="emr-3x-hbase-prerequisites"></a>

Un cluster créé à l'aide des versions 2.x et 3.x de l'AMI Amazon EMR doit répondre aux exigences suivantes pour. HBase
+ Le AWS CLI (facultatif) —Pour interagir à HBase l'aide de la ligne de commande, téléchargez et installez la dernière version du AWS CLI. Pour plus d’informations, consultez [Installation d’ AWS Command Line Interface](https://docs.aws.amazon.com/cli/latest/userguide/installing.html) dans le *Guide de l’utilisateur AWS Command Line Interface *.
+ Au moins deux instances (facultatif) : le nœud principal du cluster exécute le serveur maître HBase et Zookeeper, et les nœuds de tâche exécutent les serveurs de région HBase. Pour de meilleures performances, les clusters HBase doivent s'exécuter sur au moins deux instances EC2, mais vous pouvez les exécuter HBase sur un seul nœud à des fins d'évaluation. 
+ Cluster de longue durée : HBase ne s'exécute que sur des clusters de longue durée. Par défaut, l'interface de ligne de commande et la console Amazon EMR créent des clusters de longue durée. 
+ Un jeu de paires de clés Amazon EC2 (recommandée) : pour utiliser le protocole Secure Shell (SSH) pour vous connecter avec le nœud principal et exécuter les commandes de shell HBase, vous devez utiliser une paire de clés Amazon EC2 lorsque vous créez le cluster. 
+ Versions d'AMI et d'Hadoop correctes : les HBase clusters ne sont actuellement pris en charge que sur Hadoop 20.205 ou version ultérieure. 
+ Ganglia (facultatif) : pour surveiller les indicateurs de HBase performance, installez Ganglia lors de la création du cluster. 
+ Un compartiment Amazon S3 pour les journaux (facultatif) : les journaux pour HBase sont disponibles sur le nœud principal. Si vous voulez que ces journaux soient copiés dans Amazon S3, spécifiez un compartiment S3 qui contiendra les fichiers journaux lorsque vous créez le cluster. 

## Création d'un cluster avec HBase
<a name="emr-3x-hbase-launch"></a>

Le tableau suivant répertorie les options disponibles lorsque vous utilisez la console pour créer un cluster à HBase l'aide d'une version publiée de l'AMI Amazon EMR.


| Champ | Action | 
| --- | --- | 
| Restore from backup (Rétablir à partir d'une sauvegarde) | Spécifiez s'il faut précharger le HBase cluster avec les données stockées dans Amazon S3. | 
| Backup location (Emplacement de sauvegarde) | Spécifiez l'URI où la sauvegarde à restaurer réside dans Amazon S3.  | 
| Backup version (Version de sauvegarde) | Éventuellement, spécifiez le nom de version de la sauvegarde dans Backup Location (Emplacement de sauvegarde) à utiliser. Si vous laissez ce champ vide, Amazon EMR utilise la dernière sauvegarde de Backup Location pour remplir le nouveau cluster. HBase  | 
| Schedule Regular Backups (Planifier des sauvegardes régulières) | Spécifiez s'il convient de planifier des sauvegardes incrémentielles automatiques. La première sauvegarde est une sauvegarde complète pour créer une référence pour les futures sauvegardes incrémentielles. | 
| Consistent backup (Sauvegarde uniforme) | Spécifiez si les sauvegardes doivent être cohérentes. Une sauvegarde cohérente est une sauvegarde qui interrompt les opérations d'écriture au cours de la phase initiale de sauvegarde, pour la synchronisation entre les nœuds. Les éventuelles opérations d'écriture ainsi interrompues sont placées dans une file d'attente et reprises lorsque la synchronisation est terminée. | 
| Backup frequency (Fréquence de sauvegarde) | Nombre de sauvegardes planifiées days/hours/minutes entre deux. | 
| Backup location (Emplacement de sauvegarde) | L'URI Amazon S3 où les sauvegardes sont stockées. L'emplacement de sauvegarde de chaque HBase cluster doit être différent pour garantir que les sauvegardes différentielles restent correctes.  | 
| Backup start time (Heure de début de sauvegarde) | Spécifiez quand la première sauvegarde doit avoir lieu. Vous pouvez spécifier now, ce qui entraîne le commencement de la première sauvegarde lorsque le cluster est en cours d'exécution, ou saisir une date et une heure dans [ISO format](http://www.w3.org/TR/NOTE-datetime). Par exemple, 2012-06-15T20:00Z définit la date et l'heure de début sur le 15 juin 2012 à 20 h 00 UTC.  | 

L'exemple de AWS CLI commande suivant lance un cluster avec HBase d'autres applications :

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
               --applications Name=Hue Name=Hive Name=Pig Name=HBase \
               --use-default-roles --ec2-attributes KeyName=myKey \
               --instance-type c1.xlarge --instance-count 3 --termination-protected
```

Une fois la connexion établie entre le Hive et les HBase clusters (comme indiqué dans la procédure précédente), vous pouvez accéder aux données stockées sur le HBase cluster en créant une table externe dans Hive. 

L'exemple suivant, lorsqu'il est exécuté à partir de l'invite Hive, crée une table externe qui fait référence aux données stockées dans une HBase table appelée`inputTable`. Vous pouvez ensuite faire référence `inputTable` dans les instructions Hive pour interroger et modifier les données stockées dans le HBase cluster. 

**Note**  
L'exemple suivant utilise **protobuf-java-2.4.0a.jar** dans AMI 2.3.3, mais vous devez modifier l'exemple pour qu'il corresponde à votre version. Pour vérifier quelle version du fichier JAR de tampons de protocole vous avez, exécutez la commande à l'invite de commande Hive : `! ls /home/hadoop/lib;`. 

```
add jar lib/emr-metrics-1.0.jar ;
               add jar lib/protobuf-java-2.4.0a.jar ;
               
               set hbase.zookeeper.quorum=ec2-107-21-163-157.compute-1.amazonaws.com ;
               
               create external table inputTable (key string, value string)
                    stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
                     with serdeproperties ("hbase.columns.mapping" = ":key,f1:col1")
                     tblproperties ("hbase.table.name" = "t1");
               
               select count(*) from inputTable ;
```

## Personnalisation de la configuration HBase
<a name="emr-3x-hbase-customize"></a>

Bien que les paramètres par défaut devraient fonctionner pour la plupart des applications, vous avez la possibilité de modifier vos paramètres HBase de configuration. Pour ce faire, exécutez l'un des deux scripts d'action d'amorçage : 
+ **configure-hbase-daemons**—Configure les propriétés des démons master, regionserver et zookeeper. Ces propriétés incluent la taille du segment de mémoire et les options à transmettre à la machine virtuelle Java (JVM) au démarrage du HBase démon. Vous définissez ces propriétés en tant qu'arguments dans l'action d'amorçage. Cette action d'amorçage modifie le fichier de configuration/home/hadoop/conf/hbase-user-env.sh sur le HBase cluster. 
+ **configure-hbase** —Configure les paramètres HBase spécifiques au site, tels que le port auquel le HBase maître doit se lier et le nombre maximal de fois que le client CLI du client doit réessayer une action. Vous pouvez les one-by-one définir en tant qu'arguments dans l'action bootstrap, ou vous pouvez spécifier l'emplacement d'un fichier de configuration XML dans Amazon S3. Cette action d'amorçage modifie le fichier de configuration/home/hadoop/conf/hbase-site.xml sur le HBase cluster. 

**Note**  
Ces scripts, comme les autres actions d'amorçage, ne peuvent être exécutés que lorsque le cluster est créé ; vous ne pouvez pas les utiliser pour modifier la configuration d'un HBase cluster en cours d'exécution. 

Lorsque vous exécutez les actions **configure-hbase** ou **configure-hbase-daemons**bootstrap, les valeurs que vous spécifiez remplacent les valeurs par défaut. Toutes les valeurs que vous ne définissez pas explicitement reçoivent les valeurs par défaut. 

La configuration HBase à l'aide de ces actions d'amorçage est analogue à l'utilisation d'actions de démarrage dans Amazon EMR pour configurer les paramètres Hadoop et les propriétés du démon Hadoop. La différence est qu'il HBase n'y a pas d'options de mémoire par processus. Au lieu de cela, les options de mémoire sont définies à l'aide de l'`--daemon-opts`argument, qui *daemon* est remplacé par le nom du démon à configurer. 

### Configurer les HBase démons
<a name="emr-3x-hbase-configure-daemons"></a>

 Amazon EMR fournit une action de démarrage que vous pouvez utiliser pour modifier la configuration des HBase démons, en indiquant la région dans laquelle vous lancez votre cluster. `s3://region.elasticmapreduce/bootstrap-actions/configure-hbase-daemons` *region* HBase 

Pour configurer HBase des démons à l'aide de AWS CLI, ajoutez l'action `configure-hbase-daemons` bootstrap lorsque vous lancez le cluster afin de configurer un ou plusieurs démons. HBase Vous pouvez définir les propriétés suivantes : 


| Propriété | Description | 
| --- | --- | 
| hbase-master-opts | Options qui contrôlent la façon dont la machine virtuelle Java exécute le démon maître. Si elles sont définies, elles remplacent les variables HBASE\$1MASTER\$1OPTS par défaut.  | 
| regionserver-opts | Options qui contrôlent la façon dont la machine virtuelle Java exécute le démon de serveur de région. Si elles sont définies, elles remplacent les variables HBASE\$1REGIONSERVER\$1OPTS par défaut. | 
| zookeeper-opts | Options qui contrôlent la façon dont la machine virtuelle Java exécute le démon zookeeper. Si elles sont définies, elles remplacent les variables HBASE\$1ZOOKEEPER\$1OPTS par défaut.  | 

Pour plus d'informations sur ces options, consultez le [fichier hbase-env.sh](https://hbase.apache.org/book.html#hbase.env.sh) dans la HBase documentation. 

Une action d'amorçage permettant de configurer les valeurs de `zookeeper-opts` et `hbase-master-opts` est illustrée dans l'exemple suivant.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
--applications Name=Hue Name=Hive Name=Pig Name=HBase \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-type c1.xlarge --instance-count 3 --termination-protected \
--bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase-daemons,\
Args=["--hbase-zookeeper-opts=-Xmx1024m -XX:GCTimeRatio=19","--hbase-master-opts=-Xmx2048m","--hbase-regionserver-opts=-Xmx4096m"]
```

### Configuration des paramètres HBase du site
<a name="emr-3x-hbase-configure-site"></a>

Amazon EMR fournit une action de démarrage que vous pouvez utiliser pour modifier la configuration de. `s3://elasticmapreduce/bootstrap-actions/configure-hbase` HBase Vous pouvez définir des valeurs de configuration one-by-one, comme arguments dans l'action bootstrap, ou vous pouvez spécifier l'emplacement d'un fichier de configuration XML dans Amazon S3. La définition de valeurs de configuration one-by-one est utile si vous n'avez besoin de définir que quelques paramètres de configuration. Leur définition à l'aide d'un fichier XML est utile si vous avez beaucoup de modifications à apporter, ou si vous souhaitez enregistrer vos paramètres de configuration en vue de les réutiliser. 

**Note**  
Vous pouvez préfixer le nom du compartiment Amazon S3 par un préfixe de région`s3://region.elasticmapreduce/bootstrap-actions/configure-hbase`, tel que « où se *region* trouve la région dans laquelle vous lancez votre HBase cluster ». 

Cette action d'amorçage modifie le fichier `/home/hadoop/conf/hbase-site.xml` de configuration du HBase cluster. L'action bootstrap ne peut être exécutée que lorsque le HBase cluster est lancé.

Pour plus d'informations sur les paramètres du HBase site que vous pouvez configurer, consultez la section [Configuration par défaut](http://hbase.apache.org/book.html#config.files) dans la HBase documentation. 

Définissez l'action `configure-hbase` bootstrap lorsque vous lancez le HBase cluster et spécifiez les valeurs `hbase-site.xml` à modifier.

**Pour définir les paramètres individuels HBase du site à l'aide du AWS CLI**
+ Pour modifier le `hbase.hregion.max.filesize` paramètre, tapez la commande suivante et remplacez-la *myKey* par le nom de votre paire de clés Amazon EC2.
**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

  ```
  aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
  --applications Name=Hue Name=Hive Name=Pig Name=HBase \
  --use-default-roles --ec2-attributes KeyName=myKey \
  --instance-type c1.xlarge --instance-count 3 --termination-protected \
  --bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase,Args=["-s","hbase.hregion.max.filesize=52428800"]
  ```

**Pour définir les paramètres HBase du site à l'aide d'un fichier XML à l'aide du AWS CLI**

1. Créez une version personnalisée de `hbase-site.xml`. Votre fichier personnalisé doit être un fichier XML valide. Pour réduire le risque d'introduction d'erreurs, commencez par la copie par défaut de`hbase-site.xml`, située sur le nœud HBase principal Amazon EMR à l'adresse`/home/hadoop/conf/hbase-site.xml`, et modifiez une copie de ce fichier au lieu de créer un fichier à partir de zéro. Vous pouvez donner un nouveau nom à votre nouveau fichier ou conserver le nom `hbase-site.xml`. 

1. Chargez votre fichier `hbase-site.xml` personnalisé sur un compartiment Amazon S3. Les autorisations doivent être définies pour que le AWS compte qui lance le cluster puisse accéder au fichier. Si le AWS compte qui lance le cluster possède également le compartiment Amazon S3, il y a accès. 

1. Définissez l'action de démarrage **configure-hbase** lorsque vous lancez le HBase cluster et incluez l'emplacement de votre fichier personnalisé. `hbase-site.xml` L'exemple suivant définit les valeurs de configuration du HBase site selon celles spécifiées dans le fichier`s3://amzn-s3-demo-bucket/my-hbase-site.xml`. Tapez la commande suivante, *myKey* remplacez-la par le nom de votre paire de clés EC2 et remplacez-la *amzn-s3-demo-bucket* par le nom de votre compartiment Amazon S3.
**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

   ```
   aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
           --applications Name=Hue Name=Hive Name=Pig Name=HBase \
           --use-default-roles --ec2-attributes KeyName=myKey \
           --instance-type c1.xlarge --instance-count 3 --termination-protected \
           --bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase,Args=["--site-config-file","s3://amzn-s3-demo-bucket/config.xml"]
   ```

   Si vous spécifiez plusieurs options pour personnaliser le HBase fonctionnement, vous devez ajouter un commutateur d'`-s`options à chaque paire clé-valeur, comme indiqué dans l'exemple suivant :

   ```
          --bootstrap-actions s3://elasticmapreduce/bootstrap-actions/configure-hbase,Args=["-s","zookeeper.session.timeout=60000"]
   ```

Une fois le proxy défini et la connexion SSH ouverte, vous pouvez afficher l' HBase interface utilisateur en ouvrant une fenêtre de navigateur avec http : //:60010/master-status*master-public-dns-name*, où se trouve *master-public-dns-name* l'adresse DNS publique du nœud maître du cluster. HBase 

Vous pouvez consulter les HBase journaux actuels en utilisant SSH pour vous connecter au nœud principal et en accédant au `mnt/var/log/hbase` répertoire. Ces journaux ne sont pas disponibles une fois que le cluster a été arrêté sauf si vous activez la journalisation dans Amazon S3 lorsque le cluster est lancé.

## Sauvegarder et restaurer HBase
<a name="emr-3x-hbase-backup-restore"></a>

Amazon EMR permet de sauvegarder vos HBase données sur Amazon S3, soit manuellement, soit selon un calendrier automatisé. Vous pouvez effectuer des sauvegardes complètes et incrémentielles. Une fois que vous disposez d'une version sauvegardée des HBase données, vous pouvez restaurer cette version dans un HBase cluster. Vous pouvez effectuer une restauration sur un HBase cluster en cours d'exécution ou lancer un nouveau cluster prérempli de données sauvegardées. 

Pendant le processus de sauvegarde, HBase continue d'exécuter les commandes d'écriture. Cela garantit la disponibilité du cluster tout au long de la sauvegarde, mais cela entraîne un risque d'incohérence entre les données en cours de sauvegarde et les éventuelles opérations d'écriture en cours d'exécution en parallèle. Pour comprendre les incohérences qui peuvent survenir, vous devez tenir compte du fait que les opérations d' HBase écriture sont réparties entre les nœuds de son cluster. Si une opération d'écriture se produit après qu'un nœud particulier a été interrogé, ces données ne sont pas incluses dans l'archive de sauvegarde. Vous pouvez même constater que les écritures antérieures sur le HBase cluster (envoyées à un nœud qui a déjà été interrogé) ne figurent peut-être pas dans l'archive de sauvegarde, alors que les écritures ultérieures (envoyées à un nœud avant qu'il ne soit interrogé) sont incluses. 

Si une sauvegarde cohérente est requise, vous devez suspendre les écritures HBase pendant la partie initiale du processus de sauvegarde, c'est-à-dire la synchronisation entre les nœuds. Pour cela, vous pouvez spécifier le paramètre `--consistent` lorsque vous demandez une sauvegarde. Avec ce paramètre, les écritures intervenant au cours de cette période sont mises en file d'attente et exécutées dès que la synchronisation se termine. Vous pouvez également planifier des sauvegardes récurrentes, ce qui résout les incohérences au fil du temps, car les données qui manquent dans un cycle de sauvegarde sont sauvegardées lors du cycle suivant. 

Lorsque vous sauvegardez HBase des données, vous devez spécifier un répertoire de sauvegarde différent pour chaque cluster. Un moyen simple pour cela consiste à utiliser l'identifiant du cluster dans le chemin d'accès spécifié pour le répertoire de sauvegarde. Par exemple, `s3://amzn-s3-demo-bucket/backups/j-3AEXXXXXX16F2`. Cela garantit que toutes les futures sauvegardes incrémentielles font référence au HBase cluster approprié. 

Lorsque vous êtes prêt à supprimer les anciens fichiers de sauvegarde devenus inutiles, nous vous recommandons d'effectuer d'abord une sauvegarde complète de vos HBase données. Ceci garantit la conservation de toutes les données et fournit un point de départ pour les futures sauvegardes incrémentielles. Une fois la sauvegarde complète terminée, vous pouvez accédez à l'emplacement de sauvegarde et supprimer manuellement les anciens fichiers de sauvegarde. 

Le processus HBase de sauvegarde utilise S3 DistCp pour l'opération de copie, qui comporte certaines limites concernant l'espace de stockage temporaire des fichiers. 

### Sauvegarde et restauration à HBase l'aide de la console
<a name="emr-3x-hbase-backup-restore-console"></a>

La console permet de lancer un nouveau cluster et de le remplir avec les données d'une HBase sauvegarde précédente. Il vous permet également de planifier des sauvegardes incrémentielles périodiques des HBase données. Des fonctionnalités de sauvegarde et de restauration supplémentaires sont disponibles via l'interface de ligne de commande, telles que la possibilité de restaurer les données dans un cluster déjà en cours d'exécution, d'effectuer des sauvegardes manuelles et de planifier des sauvegardes complètes automatisées.

**Pour remplir un nouveau cluster avec des HBase données archivées à l'aide de la console**

1. Accédez à la nouvelle console Amazon EMR et sélectionnez **Changer pour l'ancienne console** depuis le menu latéral. Pour plus d'informations sur ce qu'implique le passage à l'ancienne console, consultez la rubrique [Utilisation de l'ancienne console](https://docs.aws.amazon.com/emr/latest/ManagementGuide/whats-new-in-console.html#console-opt-in).

1. Choisissez **Créer un cluster**.

1. Dans la section **Configuration logicielle**, pour **Applications supplémentaires**, sélectionnez **Configurer **HBase**et ajouter**.

1. Dans la boîte de dialogue **Add Application (Ajouter une application)**, cochez **Restore From Backup (Restituer à partir d'une sauvegarde)**. 

1. Pour **Backup Location**, spécifiez l'emplacement de la sauvegarde à charger dans le nouveau HBase cluster. Il doit s'agir d'une URL Amazon S3 de la forme `s3://amzn-s3-demo-bucket/backups/`. 

1. Pour **Backup Version (Version de sauvegarde)**, vous avez la possibilité de spécifier le nom d'une version de sauvegarde à charger en définissant une valeur. Si vous ne définissez pas de valeur pour **Version de sauvegarde**, Amazon EMR charge la dernière sauvegarde à l'emplacement spécifié. 

1. Choisissez **Ajouter**, puis créez le cluster avec d'autres options, si vous le souhaitez.

**Pour planifier des sauvegardes automatisées des HBase données à l'aide de la console**

1. Dans la section **Configuration logicielle**, pour **Applications supplémentaires**, sélectionnez **Configurer **HBase**et ajouter**.

1. Choisissez **Schedule Regular Backups (Planifier des sauvegardes régulières)**.

1. Spécifiez si les sauvegardes doivent être cohérentes. Une sauvegarde cohérente est une sauvegarde qui interrompt les opérations d'écriture au cours de la phase initiale de sauvegarde, pour la synchronisation entre les nœuds. Les éventuelles opérations d'écriture ainsi interrompues sont placées dans une file d'attente et reprises lorsque la synchronisation est terminée. 

1. Définissez la fréquence à laquelle les sauvegardes doivent intervenir en entrant un nombre pour **Backup Frequency (Fréquence de sauvegarde)** et en choisissant **Jours**, **Heures** ou **Minutes**. La première sauvegarde automatisée qui s'exécute est une sauvegarde complète. Après cela, Amazon EMR enregistre des sauvegardes incrémentielles basées sur la planification que vous spécifiez. 

1. Spécifiez l'emplacement dans Amazon S3 où les sauvegardes doivent être stockées. Chaque HBase cluster doit être sauvegardé dans un emplacement distinct dans Amazon S3 afin de garantir que les sauvegardes incrémentielles sont correctement calculées. 

1. Spécifiez quand la première sauvegarde doit intervenir en définissant une valeur pour **Backup Start Time (Heure de début de sauvegarde)**. Vous pouvez spécifier `now`, ce qui entraîne le commencement de la première sauvegarde lorsque le cluster est en cours d'exécution, ou saisir une date et une heure dans [ISO format](http://www.w3.org/TR/NOTE-datetime). Par exemple, 2013-09-26T20:00Z, définit la date et l'heure de début sur 26 septembre 2013 à 20 h 00 UTC. 

1. Choisissez **Ajouter**.

1. Procédez à la création du cluster avec d'autres options, si vous le souhaitez.

## Moniteur HBase avec CloudWatch
<a name="emr-3x-hbase-cloudwatch"></a>

Amazon EMR indique trois indicateurs CloudWatch que vous pouvez utiliser pour surveiller vos HBase sauvegardes. Ces mesures sont poussées CloudWatch à des intervalles de cinq minutes et sont fournies gratuitement.


| Métrique | Description | 
| --- | --- | 
| HBaseBackupFailed |  Si la dernière sauvegarde a échoué. La valeur est définie sur 0 par défaut et mise à jour sur 1 en cas d'échec de la tentative de sauvegarde précédente. Cette métrique n'est signalée que pour les HBase clusters. Cas d'utilisation : surveiller les HBase sauvegardes Unités : *nombre*  | 
| HBaseMostRecentBackupDuration |  Délai nécessaire à l'exécution de la précédente sauvegarde. Cette métrique est définie même si la dernière sauvegarde a réussi ou a échoué. Lorsque la sauvegarde est en cours, cette métrique retourne le nombre de minutes qui se sont écoulées depuis le démarrage de la sauvegarde. Cette métrique n'est signalée que pour les HBase clusters. Cas d'utilisation : Surveiller les HBase sauvegardes Unités : *minutes*  | 
| HBaseTimeSinceLastSuccessfulBackup |  Nombre de minutes écoulées après le démarrage de la dernière HBase sauvegarde réussie sur votre cluster. Cette métrique n'est signalée que pour les HBase clusters. Cas d'utilisation : surveiller les HBase sauvegardes Unités : *minutes*  | 

## Configurer Ganglia pour HBase
<a name="emr-3x-ganglia-for-hbase"></a>

Vous configurez Ganglia pour HBase utiliser l'action **configure-hbase-for-ganglia**bootstrap. Cette action de bootstrap est configurée HBase pour publier des métriques sur Ganglia. 

Vous devez configurer HBase et Ganglia lorsque vous lancez le cluster ; les rapports Ganglia ne peuvent pas être ajoutés à un cluster en cours d'exécution. 

Ganglia stocke également les fichiers journaux sur le serveur à l'adresse `/mnt/var/log/ganglia/rrds`. Si vous avez configuré votre cluster pour conserver les fichiers journaux dans un compartiment Amazon S3, les fichiers journaux Ganglia y sont conservés également. 

Pour lancer un cluster avec Ganglia for HBase, utilisez l'action **configure-hbase-for-ganglia**bootstrap comme indiqué dans l'exemple suivant.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
--applications Name=Hue Name=Hive Name=Pig Name=HBase Name=Ganglia \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-type c1.xlarge --instance-count 3 --termination-protected \
--bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase-for-ganglia
```

Une fois que le cluster a été lancé et Ganglia configuré, vous pouvez accéder aux graphiques et rapports Ganglia à l'aide de l'interface graphique en cours d'exécution sur le nœud maître. 

# Caractéristiques de l'application Pig pour les versions AMI antérieures d'Amazon EMR
<a name="emr-3x-pig"></a>

## Versions de Pig prises en charge
<a name="emr-3x-Pig_SupportedVersions"></a>

La version de Pig que vous pouvez ajouter à votre cluster dépend de la version d'AMI Amazon EMR et de la version de Hadoop que vous utilisez. Le tableau ci-dessous montre les versions d'AMI et les versions de Hadoop compatibles avec les différentes versions de Pig. Nous recommandons d'utiliser la dernière version de Pig disponible pour tirer parti des améliorations de performances et des nouvelles fonctionnalités. 

Lorsque vous utilisez l'API pour installer Pig, la version par défaut est utilisée, sauf si vous spécifiez `--pig-versions` comme argument l'étape qui charge Pig sur le cluster lors de l'appel à [RunJobFlow](https://docs.aws.amazon.com/ElasticMapReduce/latest/API/API_RunJobFlow.html). 


| Version de Pig | Version d'AMI | Paramètres de configuration | Détails de la version de Pig | 
| --- | --- | --- | --- | 
| <a name="pig12"></a>0.12.0[Notes de mise à jour](http://pig.apache.org/releases.html#14+October%2C+2013%3A+release+0.12.0+available)[Documentation](http://pig.apache.org/docs/r0.12.0/) | 3.1.0 et ultérieures |  `--ami-version 3.1` `--ami-version 3.2` `--ami-version 3.3`  |  Ajoute la prise en charge des éléments suivants : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-3x-pig.html)  | 
| <a name="pig1111"></a>0.11.1.1[Notes de mise à jour](http://pig.apache.org/releases.html#1+April%2C+2013%3A+release+0.11.1+available)[Documentation](http://pig.apache.org/docs/r0.11.1/) | 2.2 et ultérieures |  `--pig-versions 0.11.1.1` `--ami-version 2.2`  |  Améliore les performances de la commande LOAD PigStorage si l'entrée réside dans Amazon S3.  | 
| <a name="pig0111"></a>0.11.1[Notes de mise à jour](http://pig.apache.org/releases.html#1+April%2C+2013%3A+release+0.11.1+available)[Documentation](http://pig.apache.org/docs/r0.11.1/) | 2.2 et ultérieures |  `--pig-versions 0.11.1` `--ami-version 2.2`  |  Ajoute la prise en charge du JDK 7, de Hadoop 2, des fonctions définies par l'utilisateur de Groovy, de l' SchemaTuple optimisation, des nouveaux opérateurs, etc. Pour plus d'informations, consultez [Journal de modifications Pig 0.11.1](http://svn.apache.org/repos/asf/pig/tags/release-0.11.1/CHANGES.txt).  | 
| <a name="pig0922"></a>0.9.2.2[Notes de mise à jour](http://pig.apache.org/releases.html#22+January%2C+2012%3A+release+0.9.2+available)[Documentation](http://pig.apache.org/docs/r0.9.2/index.html) | 2.2 et ultérieures |  `--pig-versions 0.9.2.2` `--ami-version 2.2`  |  Ajoute une prise en charge pour Hadoop 1.0.3.  | 
| <a name="pig0921"></a>0.9.2.1[Notes de mise à jour](http://pig.apache.org/releases.html#22+January%2C+2012%3A+release+0.9.2+available)[Documentation](http://pig.apache.org/docs/r0.9.2/index.html) | 2.2 et ultérieures |  `--pig-versions 0.9.2.1` `--ami-version 2.2`  |  Ajoute la prise en charge de MapR.  | 
| <a name="pig092"></a>0.9.2[Notes de mise à jour](http://pig.apache.org/releases.html#22+January%2C+2012%3A+release+0.9.2+available)[Documentation](http://pig.apache.org/docs/r0.9.2/index.html) | 2.2 et ultérieures |  `--pig-versions 0.9.2` `--ami-version 2.2`  |  Inclut plusieurs améliorations de performances et correctifs. Pour obtenir des informations détaillées sur les modifications apportées dans la version Pig 0.9.2, consultez [Journal de modifications Pig 0.9.2](http://svn.apache.org/repos/asf/pig/tags/release-0.9.2/CHANGES.txt).  | 
| <a name="pig091"></a>0.9.1[Notes de mise à jour](http://pig.apache.org/releases.html#5+October%2C+2011%3A+release+0.9.1+available)[Documentation](http://pig.apache.org/docs/r0.9.1/) | 2.0 |  `--pig-versions 0.9.1` `--ami-version 2.0`  | 
| <a name="pig06"></a>0.6[Notes de mise à jour](http://pig.apache.org/releases.html#1+March%2C+2010%3A+release+0.6.0+available) | 1.0 |  `--pig-versions 0.6` `--ami-version 1.0`  | 
| <a name="pig03"></a>0.3[Notes de mise à jour](http://pig.apache.org/releases.html#25+June%2C+2009%3A+release+0.3.0+available) | 1.0 |  `--pig-versions 0.3` `--ami-version 1.0`  | 

## Détails de la version de Pig
<a name="emr-pig-version-details"></a>

Amazon EMR prend en charge certaines versions de Pig auxquelles des correctifs Amazon EMR supplémentaires sont appliqués. Vous pouvez configurer la version de Pig à exécuter sur les clusters Amazon EMR. Pour plus d'informations sur cette étape, consultez [Apache Pig](emr-pig.md). Les sections suivantes décrivent les différentes versions de Pig et les correctifs appliqués aux versions chargées sur Amazon EMR. 

### Correctifs Pig
<a name="EnvironmentConfig_AMIPigPatches"></a>

Cette section décrit les correctifs personnalisés appliqués aux versions de Pig disponibles avec Amazon EMR.

#### Correctifs Pig 0.11.1.1
<a name="EnvironmentConfig_AMIPigPatches-0.11.1.1"></a>

La version Amazon EMR de Pig 0.11.1.1 est une version de maintenance qui améliore les performances de la commande LOAD PigStorage si l'entrée réside dans Amazon S3.

#### Correctifs Pig 0.11.1
<a name="EnvironmentConfig_AMIPigPatches-0.11.1"></a>

La version Amazon EMR de Pig 0.11.1 contient toutes les mises à jour fournies par l'Apache Software Foundation et les correctifs Amazon EMR cumulés depuis la version Pig 0.9.2.2. Il n'y a cependant pas de nouveaux correctifs spécifiques à Amazon EMR dans Pig 0.11.1.

#### Correctifs Pig 0.9.2
<a name="EnvironmentConfig_AMIPigPatches-0.9.2"></a>

Apache Pig 0.9.2 est une version de maintenance de Pig. L'équipe Amazon EMR a appliqué les correctifs suivants à la version Amazon EMR de Pig 0.9.2. 


| Correctif | Description | 
| --- | --- | 
|  PIG-1429  |   Ajout du type de données Boolean à Pig en tant que type de données de première classe. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-1429](https://issues.apache.org/jira/browse/PIG-1429).   **Statut :** validé   **Correction dans la version Apache Pig :** 0.10   | 
|  PIG-1824  |   Prise en charge des modules d'importation dans Jython UDF. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-1824](https://issues.apache.org/jira/browse/PIG-1824).   **Statut :** validé   **Correction dans la version Apache Pig :** 0.10   | 
|  PIG-2010  |   JARs Bundle enregistré dans le cache distribué. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-2010.](https://issues.apache.org/jira/browse/PIG-2010)   **Statut :** validé   **Correction dans la version Apache Pig :** 0.11   | 
|  PIG-2456  |   Ajout d'un fichier \$1/.pigbootup dans lequel l'utilisateur peut spécifier des déclarations Pig par défaut. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-2456](https://issues.apache.org/jira/browse/PIG-2456).   **Statut :** validé   **Correction dans la version Apache Pig :** 0.11   | 
|  PIG-2623  |   Support à l'utilisation des chemins Amazon S3 pour l'enregistrement UDFs. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-2623](https://issues.apache.org/jira/browse/PIG-2623).   **Statut :** validé   **Correction dans les versions Apache Pig :** 0.10, 0.11   | 

#### Correctifs Pig 0.9.1
<a name="EnvironmentConfig_AMIPigPatches-0.9.1"></a>

L'équipe Amazon EMR a appliqué les correctifs suivants à la version Amazon EMR de Pig 0.9.1. 


| Correctif | Description | 
| --- | --- | 
|  Prise en charge des fichiers JAR et des scripts Pig dans les systèmes de fichiers distribués  |   Ajout de la prise en charge de l'exécution de scripts et de l'enregistrement de fichiers JAR stockés dans HDFS, Amazon S3 ou d'autres systèmes de fichiers distribués. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-1505](https://issues.apache.org/jira/browse/PIG-1505).   **Statut :** validé   **Correction dans la version Apache Pig :** 0.8.0   | 
|  Prise en charge de plusieurs systèmes de fichiers dans Pig  |   Ajout de la prise en charge des scripts Pig pour lire les données d'un système de fichiers et les écrire dans un autre. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-1564](https://issues.apache.org/jira/browse/PIG-1564).   **Statut :** non validé   **Correction dans la version Apache Pig :** non applicable   | 
|  Ajouter la date, l'heure et la chaîne de caractères de Piggybank UDFs  |   Ajoutez la date, l'heure et la chaîne UDFs pour prendre en charge les scripts Pig personnalisés. Pour plus d'informations, rendez-vous sur [https://issues.apache. org/jira/browse/PIG-1565](https://issues.apache.org/jira/browse/PIG-1565).   **Statut :** non validé   **Correction dans la version Apache Pig :** non applicable   | 

## Clusters Pig en mode interactif ou en mode de traitement par lots
<a name="emr-3x-pig-interactive-batch"></a>

Amazon EMR vous permet d'exécuter des scripts Pig dans deux modes :
+ Interactive
+ Par lots

Lorsque vous lancez un cluster de longue durée à l'aide de la console ou du AWS CLI, vous pouvez vous connecter au nœud principal **ssh** en tant qu'utilisateur Hadoop et utiliser le shell Grunt pour développer et exécuter vos scripts Pig de manière interactive. Utiliser Pig de façon interactive vous permet de réviser plus facilement le script Pig qu'en mode de traitement par lots. Lorsque vous avez révisé le script Pig en mode interactif et que tout est correct, vous pouvez charger le script sur Amazon S3 et utiliser le mode de traitement par lots pour exécuter le script en production. Vous pouvez également soumettre des commandes Pig de façon interactive sur un cluster en cours d'exécution pour analyser et transformer les données en fonction des besoins.

En mode de traitement par lots, vous chargez votre script Pig sur Amazon S3, puis soumettez le travail au cluster dans le cadre d'une étape. Les étapes Pig peuvent être soumises à un cluster de longue durée ou à un cluster transitoire.

# Caractéristiques de l'application Spark pour les versions AMI antérieures d'Amazon EMR
<a name="emr-3x-spark"></a>

## Utilisation interactive de Spark ou en mode de traitement par lots
<a name="emr-3x-spark-interactive-batch"></a>

Amazon EMR vous permet d'exécuter des applications Spark dans deux modes : 
+ Interactive
+ Par lots

Lorsque vous lancez un cluster de longue durée à l'aide de la console ou du AWS CLI, vous pouvez vous connecter via SSH au nœud principal en tant qu'utilisateur Hadoop et utiliser le shell Spark pour développer et exécuter vos applications Spark de manière interactive. L'utilisation de Spark vous permet de façon interactive de créer un prototype ou de tester les applications Spark plus facilement que dans un environnement de traitement par lots. Après avoir révisé avec succès l'application Spark en mode interactif, vous pouvez placer le programme JAR ou Python de cette application dans le système de fichiers local du nœud principal du cluster sur Amazon S3. Vous pouvez alors soumettre l'application en tant que flux de travail de traitement par lots.

En mode de traitement par lots, chargez votre script Spark sur Amazon S3 ou le système de fichiers local du nœud principal, puis soumettez le travail au cluster en tant qu'étape. Les étapes Spark peuvent être soumises à un cluster de longue durée ou à un cluster transitoire.

## Création d'un cluster avec Spark installé
<a name="emr-3x-spark-install"></a>

**Pour lancer un cluster avec Spark installé à l'aide de la console**

1. Accédez à la nouvelle console Amazon EMR et sélectionnez **Changer pour l'ancienne console** depuis le menu latéral. Pour plus d'informations sur ce qu'implique le passage à l'ancienne console, consultez la rubrique [Utilisation de l'ancienne console](https://docs.aws.amazon.com/emr/latest/ManagementGuide/whats-new-in-console.html#console-opt-in).

1. Choisissez **Créer un cluster**.

1. Pour **Configuration des logiciels**, choisissez la version AMI dont vous avez besoin.

1.  Pour **Applications to be installed (Applications à installer)**, choisissez **Spark** dans la liste, puis choisissez **Configurer et ajouter**.

1. Ajoutez des arguments pour modifier la configuration de Spark comme vous le souhaitez. Pour de plus amples informations, veuillez consulter [Configuration de Spark](#emr-3x-spark-configure). Choisissez **Ajouter**.

1.  Sélectionnez d'autres options si nécessaire, puis choisissez **Create cluster (Créer le cluster)**.

L'exemple suivant montre comment créer un cluster avec Spark au moyen de Java :

```
AmazonElasticMapReduceClient emr = new AmazonElasticMapReduceClient(credentials);
SupportedProductConfig sparkConfig = new SupportedProductConfig()
			.withName("Spark");

RunJobFlowRequest request = new RunJobFlowRequest()
			.withName("Spark Cluster")
			.withAmiVersion("3.11.0")
			.withNewSupportedProducts(sparkConfig)
			.withInstances(new JobFlowInstancesConfig()
				.withEc2KeyName("myKeyName")
				.withInstanceCount(1)
				.withKeepJobFlowAliveWhenNoSteps(true)
				.withMasterInstanceType("m3.xlarge")
				.withSlaveInstanceType("m3.xlarge")
			);			
RunJobFlowResult result = emr.runJobFlow(request);
```

## Configuration de Spark
<a name="emr-3x-spark-configure"></a>

Vous configurez Spark lorsque vous créez un cluster en exécutant l'action bootstrap située dans le [awslabs/emr-bootstrap-actions/sparkréférentiel sur Github](https://github.com/awslabs/emr-bootstrap-actions/tree/master/spark). Pour savoir quels arguments sont acceptés par l'action d'amorçage, consultez le fichier [README](https://github.com/aws-samples/emr-bootstrap-actions/blob/master/spark/examples/README.md)dans ce référentiel. L'action d'amorçage configure les propriétés dans le fichier `$SPARK_CONF_DIR/spark-defaults.conf`. Pour plus d'informations sur les paramètres, consultez la rubrique Spark Configuration dans la documentation Spark. Vous pouvez remplacer « latest » dans l'URL suivante avec le numéro de la version de Spark que vous installez, par exemple, `2.2.0` [http://spark.apache.org/docs/latest/configuration.html](http://spark.apache.org/docs/latest/configuration.html).

Vous pouvez également configurer Spark dynamiquement au moment de l'envoi de chaque application. Un paramètre permettant d'optimiser automatiquement l'allocation de ressources pour un exécuteur est disponible dans le fichier de configuration `spark`. Pour de plus amples informations, veuillez consulter [Remplacement des paramètres de configuration par défaut de Spark](#emr-3x-spark-dynamic-configuration).

### Modification des paramètres Spark par défaut
<a name="emr-3x-spark-default-settings"></a>

L'exemple suivant montre comment créer un cluster avec `spark.executor.memory` défini sur 2G au moyen de l' AWS CLI.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr create-cluster --name "Spark cluster" --ami-version 3.11.0 \
--applications Name=Spark, Args=[-d,spark.executor.memory=2G] --ec2-attributes KeyName=myKey \
--instance-type m3.xlarge --instance-count 3 --use-default-roles
```

### Soumission d'un travail à Spark
<a name="emr-3x-spark-submit-work"></a>

Pour soumettre du travail à un cluster, utilisez une étape pour exécuter le script `spark-submit` sur votre cluster EMR. Ajoutez l'étape en utilisant la `addJobFlowSteps` méthode dans [AmazonElasticMapReduceClient](https://docs.aws.amazon.com/AWSJavaSDK/latest/javadoc/com/amazonaws/services/elasticmapreduce/AmazonElasticMapReduceClient.html):

```
AWSCredentials credentials = new BasicAWSCredentials(accessKey, secretKey);
AmazonElasticMapReduceClient emr = new AmazonElasticMapReduceClient(credentials);
StepFactory stepFactory = new StepFactory();
AddJobFlowStepsRequest req = new AddJobFlowStepsRequest();
req.withJobFlowId("j-1K48XXXXXXHCB");

List<StepConfig> stepConfigs = new ArrayList<StepConfig>();
		
StepConfig sparkStep = new StepConfig()
	.withName("Spark Step")
	.withActionOnFailure("CONTINUE")
	.withHadoopJarStep(stepFactory.newScriptRunnerStep("/home/hadoop/spark/bin/spark-submit","--class","org.apache.spark.examples.SparkPi","/home/hadoop/spark/lib/spark-examples-1.3.1-hadoop2.4.0.jar","10"));

stepConfigs.add(sparkStep);
req.withSteps(stepConfigs);
AddJobFlowStepsResult result = emr.addJobFlowSteps(req);
```

### Remplacement des paramètres de configuration par défaut de Spark
<a name="emr-3x-spark-dynamic-configuration"></a>

Vous souhaiterez probablement remplacer les valeurs de configuration par défaut de Spark indépendamment pour chaque application. Vous pouvez faire cela lorsque vous soumettez des applications à l'aide d'une étape, ce qui transmet essentiellement des options à `spark-submit`. Par exemple, vous pouvez changer la mémoire allouée à un processus d'exécuteur en modifiant `spark.executor.memory`. Vous pouvez fournir le commutateur `--executor-memory` avec un argument tel que :

```
/home/hadoop/spark/bin/spark-submit --executor-memory 1g --class org.apache.spark.examples.SparkPi /home/hadoop/spark/lib/spark-examples*.jar 10
```

De même, vous pouvez ajuster `--executor-cores` et `--driver-memory`. Dans une étape, vous pouvez fournir les arguments suivants à l'étape :

```
--executor-memory 1g --class org.apache.spark.examples.SparkPi /home/hadoop/spark/lib/spark-examples*.jar 10
```

Vous pouvez également ajuster les paramètres qui n'ont peut-être pas de commutateur intégré à l'aide de l'option `--conf`. Pour plus d'informations sur les autres paramètres ajustables, consultez la rubrique [Chargement dynamique de propriétés Spark](https://spark.apache.org/docs/latest/configuration.html#dynamically-loading-spark-properties) dans la documentation Apache Spark.

# Différences entre l'DistCp utilitaire S3 et les versions antérieures de l'AMI d'Amazon EMR
<a name="emr-3x-s3distcp"></a>

## DistCp Versions S3 prises en charge dans Amazon EMR
<a name="emr-s3distcp-verisons"></a>

Les DistCp versions S3 suivantes sont prises en charge dans les versions de l'AMI Amazon EMR. DistCpLes versions S3 postérieures à 1.0.7 se trouvent directement sur les clusters. Utilisez le fichier JAR dans `/home/hadoop/lib` pour bénéficier des dernières fonctions.


| Version | Description | Date de publication | 
| --- | --- | --- | 
| 1.0.8 | Ajoute les options --appendToLastFile, --requirePreviousManifest et --storageClass. | 3 janvier 2014 | 
| 1.0.7 | Ajoute l'option --s3ServerSideEncryption. | 2 mai 2013 | 
| 1.0.6 | Ajoute l'option --s3Endpoint. | 6 août 2012 | 
| 1.0.5 | Améliore la capacité à spécifier la version de S3 DistCp à exécuter. | 27 juin 2012 | 
| 1.0.4 | Améliore l'option --deleteOnSuccess. | 19 juin 2012 | 
| 1.0.3 | Ajoute une prise en charge pour les options --numberFiles et --startingIndex. | 12 juin 2012 | 
| 1.0.2 | Améliore l'affectation des noms lors de l'utilisation de groupes. | 6 juin 2012 | 
| 1.0.1 | Version initiale de S3DistCp. | 19 janvier 2012 | 

## Ajouter une étape de DistCp copie S3 à un cluster
<a name="emr-3x-s3distcp-add-step"></a>

Pour ajouter une étape de DistCp copie S3 à un cluster en cours d'exécution, tapez la commande suivante, *j-3GYXXXXXX9IOK* remplacez-la par votre ID de cluster et remplacez *amzn-s3-demo-bucket* par le nom de votre compartiment Amazon S3.

**Note**  
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr add-steps --cluster-id j-3GYXXXXXX9IOK \
--steps Type=CUSTOM_JAR,Name="S3DistCp step",Jar=/home/hadoop/lib/emr-s3distcp-1.0.jar,\
Args=["--s3Endpoint,s3-eu-west-1.amazonaws.com",\
"--src,s3://amzn-s3-demo-bucket/logs/j-3GYXXXXXX9IOJ/node/",\
"--dest,hdfs:///output",\
"--srcPattern,.*[a-zA-Z,]+"]
```

**Example Charger CloudFront les journaux Amazon dans HDFS**  
Cet exemple charge les CloudFront journaux Amazon dans HDFS en ajoutant une étape à un cluster en cours d'exécution. Au cours du processus, il modifie le format de compression de Gzip (format CloudFront par défaut) en LZO. Cela est utile, car les données compressées à l'aide de LZO peuvent être divisées en plusieurs mappages lorsqu'elles sont décompressées, si bien que vous n'avez pas à attendre la fin de la compression, comme vous le faites pour Gzip. Cela fournit de meilleures performances lorsque vous analysez les données à l'aide d'Amazon EMR. Cet exemple améliore également les performances en utilisant l'expression régulière spécifiée dans l'option `--groupBy` pour combiner tous les journaux d'une heure donnée dans un seul fichier. Les clusters Amazon EMR sont plus efficaces lors du traitement de quelques fichiers volumineux compressés LZO que lors du traitement de nombreux petits fichiers compressés au format GZIP. Pour fractionner les fichiers LZO, vous devez les indexer et utiliser la bibliothèque tierce hadoop-lzo.   
Pour charger CloudFront les journaux Amazon dans HDFS, tapez la commande suivante, remplacez-la *j-3GYXXXXXX9IOK* par votre ID de cluster et remplacez par le nom *amzn-s3-demo-bucket* de votre compartiment Amazon S3.   
Les caractères de continuation de ligne Linux (\$1) sont inclus pour des raisons de lisibilité. Ils peuvent être supprimés ou utilisés dans les commandes Linux. Pour Windows, supprimez-les ou remplacez-les par un caret (^).

```
aws emr add-steps --cluster-id j-3GYXXXXXX9IOK \
--steps Type=CUSTOM_JAR,Name="S3DistCp step",Jar=/home/hadoop/lib/emr-s3distcp-1.0.jar,\
Args=["--src,s3://amzn-s3-demo-bucket/cf","--dest,hdfs:///local",\
"--groupBy,.*XABCD12345678.([0-9]+-[0-9]+-[0-9]+-[0-9]+).*",\
"--targetSize,128",
"--outputCodec,lzo","--deleteOnSuccess"]
```
Considérons que l'exemple précédent est exécuté sur les fichiers journaux CloudFront suivants.   

```
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-01.HLUS3JKx.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-01.I9CNAZrg.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-02.YRRwERSA.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-02.dshVLXFE.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-02.LpLfuShd.gz
```
S3 DistCp copie, concatène et compresse les fichiers dans les deux fichiers suivants, le nom du fichier étant déterminé par la correspondance établie par l'expression régulière.   

```
hdfs:///local/2012-02-23-01.lzo
hdfs:///local/2012-02-23-02.lzo
```