

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Amazon SageMaker HyperPod AMI
<a name="sagemaker-hyperpod-release-ami"></a>

Amazon SageMaker HyperPod Amazon Machine Images (AMIs) sont des images de machine spécialisées pour les charges de travail d'apprentissage automatique distribuées et le calcul haute performance. Ils AMIs améliorent les images de base grâce à des composants essentiels tels que les pilotes GPU et le support de l'accélérateur AWS Neuron.

Les principaux composants ajoutés HyperPod AMIs incluent :
+ [Public AMIs](sagemaker-hyperpod-release-public-ami.md) avec soutien à la [création de modèles personnalisés AMIs](hyperpod-custom-ami-support.md)
+ Outils d’orchestration avancés :
  + [Orchestration de SageMaker HyperPod clusters avec SlurmOrchestration Slurm](sagemaker-hyperpod-slurm.md)
  + [Orchestration de SageMaker HyperPod clusters avec Amazon EKS](sagemaker-hyperpod-eks.md)
+ Dépendances de gestion de cluster
+ Fonctionnalités de résilience intégrées :
  + surveillance de l’état du cluster
  + fonctionnalités de reprise automatique
+ Support pour la gestion et la configuration des HyperPod clusters

Ces améliorations s'appuient sur le Deep Learning AMIs (DLAMIs) de base suivant :
+ [AWS AMI GPU Deep Learning Base (Ubuntu 20.04)](https://aws.amazon.com/releasenotes/aws-deep-learning-base-gpu-ami-ubuntu-20-04/) pour l'orchestration avec Slurm.
+ AMI basée sur Amazon Linux 2 ou Amazon Linux 2023 pour l’orchestration avec Amazon EKS.

Choisissez le vôtre HyperPod AMIs en fonction de vos préférences en matière d'orchestration :
+ Pour l’orchestration Slurm, consultez [SageMaker HyperPod Publications d'AMI pour Slurm](sagemaker-hyperpod-release-ami-slurm.md).
+ Pour l’orchestration Amazon EKS, consultez [SageMaker HyperPod Publications d'AMI pour Amazon EKS](sagemaker-hyperpod-release-ami-eks.md).

Pour plus d'informations sur les versions des SageMaker HyperPod fonctionnalités d'Amazon, consultez[Notes de SageMaker HyperPod publication d'Amazon](sagemaker-hyperpod-release-notes.md).

# Mettez à jour la version de votre AMI dans votre SageMaker HyperPod cluster
<a name="sagemaker-hyperpod-release-ami-update"></a>

Amazon SageMaker HyperPod Amazon Machine Images (AMIs) sont des images de machine spécialisées pour les charges de travail d'apprentissage automatique distribuées et le calcul haute performance. Chaque AMI est préchargée de pilotes, de cadres de machine learning, de bibliothèques d’entraînement et d’outils de surveillance des performances. En mettant à jour la version de l’AMI dans votre cluster, vous pouvez utiliser les dernières versions de ces composants et packages pour vos tâches d’entraînement et vos flux de travail.

 Lorsque vous mettez à jour la version de l’AMI au sein de votre cluster, vous avez la possibilité de traiter la mise à jour immédiatement, de planifier une mise à jour unique ou d’utiliser une expression cron pour créer une planification récurrente. Vous pouvez également choisir de mettre à jour toutes les instances d’un groupe d’instances ou uniquement des lots d’instances. Si vous choisissez de mettre à jour des lots, vous définissez le pourcentage ou le nombre d'instances que l' SageMaker IA doit mettre à niveau à la fois. Si vous utilisez cette méthode de mise à jour, vous définissez un intervalle de temps pendant lequel l' SageMaker IA doit attendre entre les lots.

Si vous choisissez de mettre à jour par lots, vous pouvez également inclure une liste d’alarmes et de métriques. Pendant l'intervalle d'attente, l' SageMaker IA observe ces métriques et si certaines dépassent leur seuil, l'alarme correspondante passe à l'état ALARM, et l' SageMaker IA annule la mise à jour de l'AMI. Pour utiliser les annulations automatiques, votre rôle d’exécution IAM doit disposer de l’autorisation `cloudwatch:DescribeAlarms`.

**Note**  
La mise à jour de votre cluster par lots n'est disponible que pour les HyperPod clusters intégrés à Amazon EKS. De plus, si vous créez plusieurs planifications, nous vous recommandons de prévoir un intervalle de temps entre les planifications. Si les planifications se chevauchent, les mises à jour risquent d’échouer.

Pour plus d'informations sur chaque version d'AMI pour votre HyperPod cluster, consultez[Amazon SageMaker HyperPod AMI](sagemaker-hyperpod-release-ami.md). Pour plus d'informations sur les HyperPod versions générales, consultez[Notes de SageMaker HyperPod publication d'Amazon](sagemaker-hyperpod-release-notes.md).

Vous pouvez utiliser l'API SageMaker AI ou les opérations de la CLI pour mettre à jour votre cluster ou consulter les mises à jour planifiées pour un cluster spécifique. Si vous utilisez la AWS console, procédez comme suit :

**Note**  
La mise à jour de votre AMI avec la AWS console n'est disponible que pour les clusters intégrés à Amazon EKS. Si vous avez un cluster Slurm, vous devez utiliser l'API SageMaker AI ou les opérations CLI.

1. Ouvrez la console Amazon SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Sur la gauche, développez **HyperPod Clusters**, puis choisissez **Cluster Management**.

1. Choisissez le cluster que vous souhaitez mettre à jour, puis choisissez **Détails** et **Mettre à jour l’AMI**.



Pour créer et gérer par programmation des planifications de mise à jour, utilisez les opérations d’API suivantes :
+ [CreateCluster](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateCluster.html)— crée un cluster en spécifiant un calendrier de mise à jour
+ [UpdateCluster](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateCluster.html)— met à jour un cluster pour ajouter un calendrier de mise à jour
+ [ UpdateClusterSoftware](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateClusterSoftware.html)— pour mettre à jour le logiciel de la plateforme d'un cluster
+ [ DescribeCluster](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeCluster.html)— voir un calendrier de mise à jour que vous avez créé pour un cluster
+ [DescribeClusterNode](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeClusterNode.html)et [ListClusterNodes](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListClusterNodes.html)— voir quand le cluster a été mis à jour pour la dernière fois.

## Autorisations requises
<a name="sagemaker-hyperpod-release-ami-update-permissions"></a>

En fonction de la façon dont vous avez configuré votre [budget d'interruption des pods](https://kubernetes.io/docs/tasks/run-application/configure-pdb/) dans votre cluster Amazon EKS, vous HyperPod expulsez les pods, libérez des nœuds et empêchez toute planification de mise à jour pendant le processus de mise à jour de l'AMI. Si l'une des contraintes du budget n'est pas respectée, HyperPod ignore ce nœud lors de la mise à jour de l'AMI. SageMaker HyperPod Pour expulser correctement les pods, vous devez ajouter les autorisations nécessaires au rôle lié au HyperPod service. Le fichier yaml suivant a les autorisations nécessaires.

```
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: hyperpod-patching
rules:
- apiGroups: [""]
  resources: ["pods"]
  verbs: ["list"]
- apiGroups: [""]
  resources: ["pods/eviction"]
  verbs: ["create"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: hyperpod-patching
subjects:
- kind: User
  name: hyperpod-service-linked-role
roleRef:
  kind: ClusterRole
  name: hyperpod-patching
  apiGroup: rbac.authorization.k8s.io
```

Utilisez les commandes suivantes pour appliquer ces autorisations.

```
git clone https://github.com/aws/sagemaker-hyperpod-cli.git 

cd sagemaker-hyperpod-cli/helm_chart

helm upgrade hyperpod-dependencies HyperPodHelmChart --namespace kube-system --install
```

## Expressions Cron
<a name="sagemaker-hyperpod-release-ami-update-cron"></a>

Pour configurer une mise à jour ponctuelle à un moment donné ou une planification récurrente, utilisez les expressions cron. Les expressions cron prennent en charge six champs et sont séparées par un espace. Les six champs sont tous requis.

```
cron(Minutes Hours Day-of-month Month Day-of-week Year)
```


| **Champs** | **Valeurs** | **Caractères génériques** | 
| --- | --- | --- | 
|  Minutes  |  00 – 59  |  N/A  | 
|  Heures  |  00 – 23  |  N/A  | 
|  D ay-of-month  |  01 – 31  | ? | 
|  Mois  |  01 – 12  | \$1 / | 
|  D ay-of-week  |  1 – 7 ou LUN-DIM  | ? \$1 L | 
|  Année  |  Année en cours – 2099  | \$1 | 

**Caractères génériques**
+ Le caractère générique **\$1** (astérisque) inclut toutes les valeurs du champ. Dans le champ `Hours`, **\$1** inclut chaque heure.
+ Le caractère générique **/** (barre oblique) spécifie les incréments. Dans le champ `Months`, vous pouvez saisir **\$1/3** pour spécifier tous les 3 mois.
+ Le caractère générique **?** (point d’interrogation) indique l’un ou l’autre. Dans le `Day-of-month` champ, tu pouvais saisir **7**, et si tu ne te souciais pas du jour de la semaine le septième, tu pourrais entrer **?** sur le Day-of-week terrain.
+ Le caractère générique **L** dans le champ `day-of-week` spécifie le dernier jour du mois ou de la semaine. Par exemple, `5L` signifie le dernier vendredi du mois.
+ Le caractère générique **\$1** dans le ay-of-week champ indique une certaine instance du jour de la semaine spécifié dans un délai d'un mois. Par exemple, 3\$12 correspond au deuxième mardi du mois : le 3 fait référence à mardi, car c’est le troisième jour de chaque semaine, et le 2 fait référence à la deuxième journée de ce type dans le mois.

Vous pouvez utiliser les expressions cron dans les scénarios suivants :
+ Planification unique qui intervient à une heure et à un jour donnés. Vous pouvez utiliser le `?` joker pour indiquer cela day-of-month ou cela n'a day-of-week pas d'importance.

  ```
  cron(30 14 ? 12 MON 2024)
  ```

  ```
  cron(30 14 15 12 ? 2024)
  ```
+ Planification hebdomadaire qui intervient à une heure et à un jour donnés. L'exemple suivant crée un calendrier qui s'exécute à 12 h 00 tous les lundis, indépendamment de tout day-of-month.

  ```
  cron(00 12 ? * 1 *)
  ```
+ Programme mensuel qui fonctionne tous les mois, quel que soit le day-of-week. La planification suivante intervient à 12h30 le 15 de chaque mois.

  ```
  cron(30 12 15 * ? *)
  ```
+ Un calendrier mensuel qui utilise day-of-week.

  ```
  cron(30 12 ? * MON *)
  ```
+ Pour créer une planification qui intervient chaque N-ième mois, utilisez le caractère générique `/`. L’exemple suivant crée une planification mensuelle qui intervient tous les 3 mois. Les deux exemples suivants montrent comment cela fonctionne avec day-of-week et day-of-month.

  ```
  cron(30 12 15 */3 ? *)
  ```

  ```
  cron(30 12 ? */3 MON *)
  ```
+ Planification qui intervient à une certaine instance du jour de la semaine spécifié. L’exemple suivant crée une planification qui intervient à 12h30 le deuxième lundi de chaque mois.

  ```
  cron(30 12 ? * 1#2 *)
  ```
+ Planification qui intervient à la dernière instance du jour de la semaine spécifié. La planification suivante intervient à 12h30 le dernier lundi de chaque mois.

  ```
  cron(30 12 ? * 1L *)
  ```

# SageMaker HyperPod Publications d'AMI pour Slurm
<a name="sagemaker-hyperpod-release-ami-slurm"></a>

Les notes de publication suivantes présentent les dernières mises à jour des versions Amazon SageMaker HyperPod AMI pour l'orchestration de Slurm. Ils HyperPod AMIs sont basés sur l'[AMI GPU AWS Deep Learning Base (Ubuntu 22.04).](https://aws.amazon.com/releasenotes/aws-deep-learning-base-gpu-ami-ubuntu-22-04/) L'équipe HyperPod de service distribue des correctifs logiciels par le biais de[SageMaker HyperPod DLAMI](sagemaker-hyperpod-ref.md#sagemaker-hyperpod-ref-hyperpod-ami). Pour les versions d' HyperPod AMI pour l'orchestration d'Amazon EKS, consultez[SageMaker HyperPod Publications d'AMI pour Amazon EKS](sagemaker-hyperpod-release-ami-eks.md). Pour plus d'informations sur les versions des SageMaker HyperPod fonctionnalités d'Amazon, consultez[Notes de SageMaker HyperPod publication d'Amazon](sagemaker-hyperpod-release-notes.md).

**Note**  
Pour mettre à jour les HyperPod clusters existants avec le DLAMI le plus récent, consultez. [Mettre à jour le logiciel de SageMaker HyperPod plate-forme d'un cluster](sagemaker-hyperpod-operate-slurm-cli-command.md#sagemaker-hyperpod-operate-slurm-cli-command-update-cluster-software)

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 1er mars 2026
<a name="sagemaker-hyperpod-release-ami-slurm-20260301"></a>

 **Mises à jour générales de l’AMI** 
+ Publication de mises à jour pour les versions 24.11 de l' SageMaker HyperPod AMI pour Slurm.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker HyperPod Assistance DLAMI pour Slurm** 

Cette version inclut les mises à jour suivantes :

------
#### [ Slurm v24.11 ]
+ Spurm 24.1 () : ARM64
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx26
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 1.45.1
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx26
  + Version Nvidia-IMEX : 580.126.09-1
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version git : 2.34.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1b1344-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1
+ Slurm 24,11 (x86\$164) :
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx26
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + dans la version Neuronx DMS : 2.26.5.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + version anti-stress : 1.0.5
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx26
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1b1344-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1

------

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 12 février 2026
<a name="sagemaker-hyperpod-release-ami-slurm-20260212"></a>

 **Mises à jour générales de l’AMI** 
+ Publication de mises à jour pour les versions 24.11 de l' SageMaker HyperPod AMI pour Slurm.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker HyperPod Assistance DLAMI pour Slurm** 

Cette version inclut les mises à jour suivantes :

------
#### [ Slurm v24.11 ]
+ Spurm 24.1 () : ARM64
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx25
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 1.45.1
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx25
  + Version Nvidia-IMEX : 580.126.09-1
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version git : 2.34.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.0b1337-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1
+ Slurm 24,11 (x86\$164) :
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx25
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + version anti-stress : 1.0.5
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx25
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.0b1337-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1

------

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 25 janvier 2026
<a name="sagemaker-hyperpod-release-ami-slurm-20260125"></a>

 **Mises à jour générales de l’AMI** 
+ Publication de mises à jour pour les versions 24.11 de l' SageMaker HyperPod AMI pour Slurm.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker HyperPod Assistance DLAMI pour Slurm** 

Cette version inclut les mises à jour suivantes :

------
#### [ Slurm v24.11 ]
+ Spurm 24.1 () : ARM64
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx25
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 2.3.1amzn3.0
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx25
  + Version Nvidia-IMEX : 580.126.09-1
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version git : 2.34.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300063.0b1323-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1
+ Slurm 24,11 (x86\$164) :
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx25
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 2.3.1amzn2.0
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + version anti-stress : 1.0.5
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx25
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300063.0b1323-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1

------

## SageMaker HyperPod Sortie d'AMI pour Slurm : 29 décembre 2025
<a name="sagemaker-hyperpod-release-ami-slurm-20251229"></a>

 **Mises à jour générales de l’AMI** 
+ Publication de mises à jour pour les versions 24.11 de l' SageMaker HyperPod AMI pour Slurm.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker HyperPod Assistance DLAMI pour Slurm** 

Cette version inclut les mises à jour suivantes :

------
#### [ Slurm v24.11 ]
+ Spurm 24.1 () : ARM64
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx25
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 2.3.1amzn3.0
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx25
  + Version Nvidia-IMEX : 580.105.08-1
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version git : 2.34.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.0b1304-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1
+ Slurm 24,11 (x86\$164) :
  + Version du noyau Linux : 6.8
  + Version de Glibc : 2.35
  + Version d'OpenSSL : 3.0.2
  + FSx Version du client Lustre : 2.15.6-1fsx25
  + Version d'exécution : 1.3.4
  + Version contenue : containerd containerd.io v2.2.1
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12,6, 12,8, 12,9, 13,0
  + Version du programme d'installation EFA : 2.3.1amzn2.0
  + Version de Python : 3.10.12
  + Version Slurm : 24.11.0
  + Version de nvme-cli : 1.16
  + version anti-stress : 1.0.5
  + Version collectée : 5.12.0.
  + Version du client lustre : 2.15.6-1fsx25
  + version du système : 249
  + version d'openssh : 8.9
  + version sudo : 1.9.9
  + Version UFW : 0.36.1
  + Version gcc : 11.4.0
  + Version de cmake : 3.22.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.0b1304-1
  + Version de nfs-utils : 1:2.6.1-1ubuntu1.2
  + iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
  + Version LVM2 : 2.03,11
  + Version ec2-instance-connect : 1.1.14-0ubuntu1.1
  + Version RDMA-Core : 60.0-1

------

## SageMaker HyperPod Sortie d'AMI pour Slurm : 22 novembre 2025
<a name="sagemaker-hyperpod-release-ami-slurm-20251128"></a>

 **Mises à jour générales de l’AMI** 
+ Publication de mises à jour pour les versions 24.11 de l' SageMaker HyperPod AMI pour Slurm.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker HyperPod Assistance DLAMI pour Slurm** 

Cette version inclut les mises à jour suivantes :

------
#### [ Slurm (arm64) ]
+ Version du noyau Linux : 6.8
+ Version de Glibc : 2.35
+ Version d'OpenSSL : 3.0.2
+ FSx Version du client Lustre : 2.15.6-1fsx21
+ Version d'exécution : 1.3.3
+ Version contenue : containerd containerd.io v2.1.5
+ Version du pilote NVIDIA : 580.95.05
+ Version CUDA : 12,6, 12,8, 12,9, 13,0
+ Version du programme d'installation EFA : 2.1.0amzn5.0
+ Version de Python : 3.10.12
+ Version Slurm : 24.11.0
+ Version de nvme-cli : 1.16
+ Version collectée : 5.12.0.
+ Version du client lustre : 2.15.6-1fsx21
+ Version Nvidia-IMEX : 580.95.05-1
+ version du système : 249
+ version d'openssh : 8.9
+ version sudo : 1.9.9
+ Version UFW : 0.36.1
+ Version gcc : 11.4.0
+ Version de cmake : 3.22.1
+ Version git : 2.34.1
+ Version de marque : 4.3
+ Version de l'agent CloudWatch : 1.300062.0b1304-1
+ Version de nfs-utils : 1:2.6.1-1ubuntu1.2
+ iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
+ Version LVM2 : 2.03,11
+ Version ec2-instance-connect : 1.1.14-0ubuntu1.1
+ Version RDMA-Core : 58.amzn0-1

------
#### [ Slurm (x86\$164) ]
+ Version du noyau Linux : 6.8
+ Version de Glibc : 2.35
+ Version d'OpenSSL : 3.0.2
+ FSx Version du client Lustre : 2.15.6-1fsx21
+ Version d'exécution : 1.3.3
+ Version contenue : containerd containerd.io v2.1.5
+ dans la version Neuronx DMS : 2.24.7.0
+ Version du pilote NVIDIA : 580.95.05
+ Version CUDA : 12,6, 12,8, 12,9, 13,0
+ Version du programme d'installation EFA : 2.3.1amzn1.0
+ Version de Python : 3.10.12
+ Version Slurm : 24.11.0
+ Version de nvme-cli : 1.16
+ version anti-stress : 1.0.5
+ Version collectée : 5.12.0.
+ Version du client lustre : 2.15.6-1fsx21
+ version du système : 249
+ version d'openssh : 8.9
+ version sudo : 1.9.9
+ Version UFW : 0.36.1
+ Version gcc : 11.4.0
+ Version de cmake : 3.22.1
+ Version de marque : 4.3
+ Version de l'agent CloudWatch : 1.300062.0b1304-1
+ Version de nfs-utils : 1:2.6.1-1ubuntu1.2
+ iscsi-initiator-utils version : 2.1.5-1 ubuntu1.1
+ Version LVM2 : 2.03,11
+ Version ec2-instance-connect : 1.1.14-0ubuntu1.1
+ Version RDMA-Core : 59.amzn0-1

------

## SageMaker HyperPod notes de publication : 07 novembre 2025
<a name="sagemaker-hyperpod-release-notes-20251107"></a>

**L'AMI inclut les éléments suivants :**
+ Compatible Service AWS : Amazon EC2
+ Système d'exploitation : Ubuntu 22.04
+ Architecture informatique : ARM64
+ Packages mis à jour : pilote NVIDIA : 580.95.05
+ Versions de CUDA : cuda-12.6, cuda-12.8, cuda-12.9, cuda-13.0
+ Correctifs de sécurité : correctif de [sécurité Runc](https://aws.amazon.com/security/security-bulletins/rss/aws-2025-024/)

## SageMaker HyperPod notes de publication : 29 septembre 2025
<a name="sagemaker-hyperpod-release-notes-20250929"></a>

**L'AMI inclut les éléments suivants :**
+ Compatible Service AWS : Amazon EC2
+ Système d'exploitation : Ubuntu 22.04
+ Architecture informatique : ARM64
+ Packages mis à jour : pilote NVIDIA : 570.172.08
+ Correctifs de sécurité

## SageMaker HyperPod notes de publication : 12 août 2025
<a name="sagemaker-hyperpod-release-notes-20250812"></a>

**L'AMI inclut les éléments suivants :**
+ Compatible Service AWS : Amazon EC2
+ Système d'exploitation : Ubuntu 22.04
+ Architecture informatique : ARM64
+ La dernière version disponible est installée pour les packages suivants :
  + Noyau Linux : 6.8
  + FSx Lustre
  + Docker
  + AWS CLI v2 à `/usr/bin/aws`
  + NVIDIA DCGM
  + Boîte à outils pour conteneurs Nvidia :
    + Commande de version : `nvidia-container-cli -V`
  + NVidia-Docker 2 :
    + Commande de version : `nvidia-docker version`
  + NVidia-IMEX : v570.172.08-1
+ Pilote NVIDIA : 570.158.01
+ Pile NVIDIA CUDA 12,4, 12,5, 12,6, 12,8 :
  + Répertoires d'installation CUDA, NCCL et CudDN : `/usr/local/cuda-xx.x/`
    + Exemple : `/usr/local/cuda-12.8/`, `/usr/local/cuda-12.8/`
  + Version NCCL compilée :
    + Pour le répertoire CUDA de 12.4, compilé la version 2.22.3\$1 4 de NCCL CUDA12
    + Pour le répertoire CUDA de 12.5, compilé la version 2.22.3\$1 .5 de NCCL CUDA12
    + Pour le répertoire CUDA de 12.6, compilé la version NCCL 2.24.3\$1 .6 CUDA12
    + Pour le répertoire CUDA de 12.8, compilé la version 2.27.5\$1 de NCCL. CUDA12
  + CUDA par défaut : 12,8
    + PATH `/usr/local/cuda` pointe vers CUDA 12.8
    + Mise à jour des variables d'environnement ci-dessous :
      + `LD_LIBRARY_PATH`avoir `/usr/local/cuda-12.8/lib:/usr/local/cuda-12.8/lib64:/usr/local/cuda-12.8:/usr/local/cuda-12.8/targets/sbsa-linux/lib:/usr/local/cuda-12.8/nvvm/lib64:/usr/local/cuda-12.8/extras/CUPTI/lib64`
      + `PATH`avoir `/usr/local/cuda-12.8/bin/:/usr/local/cuda-12.8/include/`
      + Pour toute version différente de CUDA, veuillez la mettre à jour `LD_LIBRARY_PATH` en conséquence.
+ Installateur EFA : 1.42.0
+ Nvidia GDRCopy : 2,5.1
+ AWS Le plugin OFI NCCL est fourni avec le programme d'installation EFA
  + Les chemins `/opt/amazon/ofi-nccl/lib/aarch64-linux-gnu` et `/opt/amazon/ofi-nccl/efa` sont ajoutés à`LD_LIBRARY_PATH`.
+ AWS CLI v2 at `/usr/local/bin/aws2` et AWS CLI v1 at `/usr/bin/aws`
+ Type de volume EBS : GP3
+ Python: `/usr/bin/python3.10`

## SageMaker HyperPod notes de publication : 27 mai 2025
<a name="sagemaker-hyperpod-release-notes-20250527"></a>

SageMaker HyperPod publie ce qui suit pour[Orchestration de SageMaker HyperPod clusters avec SlurmOrchestration Slurm](sagemaker-hyperpod-slurm.md).

**Nouvelles fonctionnalités et améliorations**
+ Mise à jour de l’AMI de base vers `Deep Learning Base OSS Nvidia Driver GPU AMI (Ubuntu 22.04) 20250523` avec les composants clés suivants :
  + Pilote NVIDIA : 570.133.20
  + CUDA : 12.8 (par défaut), avec prise en charge pour CUDA 12.4-12.6
  + Version NCCL : 2.26.5
  + Programme d’installation d’EFA : 1.40.0
  + AWS NCCL OFI : 1.14.2-aws
+ Packages du kit SDK Neuron mis à jour :
  + aws-neuronx-collectives: 2.25.65.0-9858ac9a1 (à partir de 2.24.59.0-838c7fc8b)
  + aws-neuronx-dkms: 2.21.37.0 (à partir de 2.20.28.0)
  + aws-neuronx-runtime-lib: 2.25.57.0-166c7a468 (à partir de 2.24.53.0-f239092cc)
  + aws-neuronx-tools: 2.23.9.0 (à partir de 2.22.61.0)

**Remarques importantes**
+ NVIDIA Container Toolkit 1.17.4 a désormais désactivé le montage des bibliothèques compatibles CUDA.
+ Mise à jour de la configuration EFA de la version 1.37 à 1.38, et EFA inclut désormais le plug-in AWS OFI NCCL, qui se trouve dans le répertoire `/opt/amazon/ofi-nccl` et non plus dans le chemin d’origine `/opt/aws-ofi-nccl/`. (Publié le 18 février 2025)
+ La version du noyau est épinglée pour des raisons de stabilité et de compatibilité des pilotes.

## SageMaker HyperPod Sortie d'AMI pour Slurm : 13 mai 2025
<a name="sagemaker-hyperpod-release-ami-slurm-20250513"></a>

Amazon SageMaker HyperPod a publié une AMI mise à jour qui prend en charge Ubuntu 22.04 LTS pour les clusters Slurm. AWS des mises AMIs à jour régulières pour vous assurer d'avoir accès à la pile logicielle la plus récente. La mise à niveau vers la dernière AMI améliore la sécurité grâce à des mises à jour complètes des packages, fournit des performances et une stabilité améliorées pour vos charges de travail, et assure la compatibilité avec les nouveaux types d’instances et les dernières fonctionnalités du noyau.

**Important**  
La mise à jour d’Ubuntu 20.04 LTS vers Ubuntu 22.04 LTS introduit des modifications susceptibles d’affecter la compatibilité avec les logiciels et les configurations conçus pour Ubuntu 20.04.

**Topics**
+ [Principales mises à jour de l’AMI Ubuntu 22.04](#sagemaker-hyperpod-ami-slurm-ubuntu22-updates)
+ [Mise à niveau vers l’AMI Ubuntu 22.04](#sagemaker-hyperpod-ami-slurm-ubuntu22-upgrade)
+ [Dépannage des échecs de mise à niveau](#sagemaker-hyperpod-ami-slurm-ubuntu22-troubleshoot)

### Principales mises à jour de l’AMI Ubuntu 22.04
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-updates"></a>

Le tableau suivant répertorie les versions des composants de l’AMI Ubuntu 22.04 par rapport à l’AMI précédente.


**Versions des composants de l’AMI Ubuntu 22.04 comparées à l’AMI précédente**  

| Composant | Version précédente | Version mise à jour | 
| --- | --- | --- | 
|  **Système d’exploitation Ubuntu**  |  20.04 LTS  |  22.04 LTS  | 
|  **Bidouste**  |  24,11  |  24.11 (inchangée)  | 
|  **Python**  |  3.8 (par défaut)  |  3.10 (par défaut)  | 
|  **Elastic Fabric Adapter (EFA) sur Amazon FSx**  |  Non pris en charge  |  Pris en charge  | 
|  **Noyau Linux**  |  5,15  |  6.8  | 
|  **Bibliothèque GNU C (glibc)**  |  2,31  |  2,35  | 
|  **Collection de compilateurs GNU (GCC)**  |  9.4.0  |  11.4.0  | 
|  **libc6**  |  ≤ 2.31  |  ≥ 2.35 prise en charge  | 
|  **Network File System (NFS)**  |  1:1.3.4  |  1:2.6.1  | 

**Note**  
Bien que la version de Slurm (24.11) reste inchangée, les mises à jour du système d’exploitation et de la bibliothèque sous-jacents dans cette AMI peuvent affecter le comportement de votre système et la compatibilité des charges de travail. Vous devez tester vos charges de travail avant de mettre à niveau les clusters de production.

### Mise à niveau vers l’AMI Ubuntu 22.04
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-upgrade"></a>

Avant de mettre à niveau votre cluster vers l’AMI Ubuntu 22.04, effectuez ces étapes de préparation et passez en revue les exigences de mise à niveau. Pour dépanner les échecs de mise à niveau, consultez [Dépannage des échecs de mise à niveau](#sagemaker-hyperpod-ami-slurm-ubuntu22-troubleshoot).

#### Vérification de la compatibilité Python
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-python-compatibility"></a>

L’AMI Ubuntu 22.04 utilise Python 3.10 comme version par défaut, mise à niveau depuis Python 3.8. Bien que Python 3.10 reste compatible avec la plupart du code Python 3.8, vous devez tester vos charges de travail existantes avant de procéder à la mise à niveau. Si vos charges de travail nécessitent Python 3.8, vous pouvez l’installer à l’aide de la commande suivante dans votre script de cycle de vie :

```
yum install python-3.8
```

Avant de mettre à niveau votre cluster, assurez-vous de procéder comme suit :

1. Testez la compatibilité de votre code avec Python 3.10.

1. Vérifiez que vos scripts de cycle de vie fonctionnent dans le nouvel environnement.

1. Vérifiez que toutes les dépendances sont compatibles avec la nouvelle version de Python.

1. Si vous avez créé votre HyperPod cluster en copiant le script de cycle de vie par défaut depuis GitHub, ajoutez la commande suivante à votre `setup_mariadb_accounting.sh` fichier avant de passer à Ubuntu 22. Pour le script complet, consultez le [fichier setup\$1mariadb\$1accounting.sh sur GitHub](https://github.com/aws-samples/awsome-distributed-training/blob/main/1.architectures/5.sagemaker-hyperpod/LifecycleScripts/base-config/setup_mariadb_accounting.sh).

   ```
   apt-get -y -o DPkg::Lock::Timeout=120 update && apt-get -y -o DPkg::Lock::Timeout=120 install apg
   ```

#### Mise à niveau de votre cluster Slurm
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-upgrade-cluster"></a>

Vous pouvez mettre à niveau votre cluster Slurm pour utiliser la nouvelle AMI de deux manières :

1. Créez un nouveau cluster à l’aide de l’API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateCluster.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateCluster.html).

1. Mettez à jour le logiciel d’un cluster existant à l’aide de l’API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateClusterSoftware.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateClusterSoftware.html).

#### Configurations validées
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-validation"></a>

AWS a testé un large éventail de charges de travail de formation distribuées et de fonctionnalités d'infrastructure sur des instances G5, G6, G6e, P4d, P5 et Trn1, notamment :
+ Formation distribuée avec PyTorch (par exemple, FSDP, LLa MA NeMo, MNIST).
+ Tests d'accélérateurs sur différents types d'instances avec Nvidia (série P/G) et AWS Neuron (Trn1).
+ Fonctionnalités de résilience incluant la [reprise automatique](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod-resiliency-slurm.html#sagemaker-hyperpod-resiliency-slurm-auto-resume) et les [surveillances de l’état approfondies](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod-eks-resiliency-deep-health-checks.html).

#### Durée d’indisponibilité et disponibilité du cluster
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-downtime-availability"></a>

Au cours du processus de mise à niveau, le cluster sera indisponible. Pour minimiser les interruptions, procédez comme suit :
+ Testez le processus de mise à niveau sur des clusters plus petits.
+ Créez des points de contrôle avant la mise à niveau, puis redémarrez les charges de travail d’entraînement à partir des points de contrôle existants une fois la mise à niveau terminée.

### Dépannage des échecs de mise à niveau
<a name="sagemaker-hyperpod-ami-slurm-ubuntu22-troubleshoot"></a>

Lorsqu’une mise à niveau échoue, commencez par déterminer si l’échec est lié aux scripts de cycle de vie. Ces scripts échouent généralement en raison d’erreurs de syntaxe, de dépendances manquantes ou de configurations incorrectes.

Pour étudier les défaillances liées aux scripts de cycle de vie, consultez CloudWatch les journaux. Tous les SageMaker HyperPod événements et journaux sont stockés dans le groupe de journaux :`/aws/sagemaker/Clusters/[ClusterName]/[ClusterID]`. Examinez en particulier le flux de journaux `LifecycleConfig/[instance-group-name]/[instance-id]`, qui fournit des informations détaillées sur les erreurs éventuelles survenant lors de l’exécution du script.

Si l’échec de la mise à niveau n’est pas lié aux scripts de cycle de vie, collectez les informations pertinentes, notamment l’ARN du cluster, les journaux d’erreurs et les horodatages, puis contactez le [AWS Support](https://aws.amazon.com/premiumsupport/) pour obtenir de l’aide.

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 07 mai 2025
<a name="sagemaker-hyperpod-release-ami-slurm-20250507"></a>

Amazon SageMaker HyperPod pour Slurm a publié une mise à niveau majeure du système d'exploitation vers Ubuntu 22.04 (par rapport à la version précédente d'Ubuntu 20.04). Consultez la DLAMI Ubuntu 22.04 ([notes de mise à jour](https://aws.amazon.com/releasenotes/aws-deep-learning-base-gpu-ami-ubuntu-22-04/)) pour plus d’informations : `Deep Learning Base OSS Nvidia Driver GPU AMI (Ubuntu 22.04) 20250503`.

Principales mises à niveau des packages :
+ Ubuntu 22.04 LTS (à partir de 20.04)
+ Version de Python :
  + Python 3.10 est désormais la version de Python par défaut dans l’AMI Ubuntu 22.04 de Slurm.
  + Cette mise à niveau donne accès aux dernières fonctionnalités, améliorations de performances et corrections de bogues introduites dans Python 3.10.
+ Support pour EFA sur FSx
+ Nouvelle version 6.8 du noyau Linux (mise à jour à partir de 5.15)
+ Version Glibc : 2.35 (mise à jour à partir de 2.31)
+ Version GCC : 11.4.0 (mise à jour à partir de 9.4.0)
+ Prise en charge de la nouvelle version libc6 (à partir de la version libc6 <= 2.31)
+ Version NFS : 1:2.6.1 (mise à jour à partir de 1:1.3.4)

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 28 avril 2025
<a name="sagemaker-hyperpod-release-ami-slurm-20250428"></a>

**Améliorations pour Slurm**
+ Mise à niveau du pilote NVIDIA de la version 550.144.03 à la version 550.163.01. Cette mise à niveau vise à remédier aux vulnérabilités et expositions courantes (CVEs) présentes dans le [bulletin de sécurité de l'affichage des GPU NVIDIA d'avril 2025](https://nvidia.custhelp.com/app/answers/detail/a_id/5630).

**Support Amazon SageMaker HyperPod DLAMI pour Slurm**

------
#### [ Installed the latest version of AWS Neuron SDK ]
+ **aws-neuronx-collectives: 2,24,59,0-838c7fc8b**
+ **aws-neuronx-dkms: 2,20,28,0**
+ **aws-neuronx-runtime-lib: 2,24,53,0-f239092** cc
+ **aws-neuronx-tools/inconnu : 2.22.61.0**

------

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 18 février 2025
<a name="sagemaker-hyperpod-release-ami-slurm-20250218"></a>

**Améliorations pour Slurm**
+ Mise à niveau de la version de Slurm vers 24.11.
+ Mise à niveau de la version Elastic Fabric Adapter (EFA) de 1.37.0 à 1.38.0.
+ L'EFA inclut désormais le plugin AWS OFI NCCL. Vous pouvez trouver ce plug-in dans le répertoire `/opt/amazon/ofi-nccl`, plutôt que dans son emplacement `/opt/aws-ofi-nccl/` d’origine. Si vous devez mettre à jour votre variable d’environnement `LD_LIBRARY_PATH`, assurez-vous de modifier le chemin pour qu’il pointe vers le nouvel emplacement `/opt/amazon/ofi-nccl` du plug-in OFI NCCL.
+ J'ai supprimé le package Emacs de ceux-ci DLAMIs. Vous pouvez installer emacs depuis GNU emac.

**Support Amazon SageMaker HyperPod DLAMI pour Slurm**

------
#### [ Installed the latest version of AWS Neuron SDK 2.19 ]
+ **aws-neuronx-collectives/inconnu : 2.23.135.0-3e70920f2** amd64
+ **aws-neuronx-dkms/inconnu :** 2.19.64.0 amd64
+ **aws-neuronx-runtime-lib/inconnu :** 2.23.112.0-9b5179492 amd64
+ **aws-neuronx-tools/inconnu :** 2.20.204.0 amd64

------

## SageMaker HyperPod Sortie d'AMI pour Slurm : 21 décembre 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20241221"></a>

**SageMaker HyperPod Assistance DLAMI pour Slurm**

------
#### [ Deep Learning Slurm AMI ]
+ **Pilote NVIDIA :** 550.127.05
+ **Pilote EFA :** 2.13.0-1
+ Installation de la dernière version du SDK AWS Neuron
  + **aws-neuronx-collectives: 2,22.33,0**
  + **aws-neuronx-dkms: 2,18,20,0**
  + **aws-neuronx-oci-hook: 2,5,8.0**
  + **aws-neuronx-runtime-lib: 2,22,19,0**
  + **aws-neuronx-tools: 2,19,0.0**

------

## SageMaker HyperPod Sortie d'AMI pour Slurm : 24 novembre 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20241124"></a>

**Mises à jour générales de l’AMI**
+ Publication dans la région `MEL` (Melbourne).
+ DLAMI SageMaker HyperPod de base mis à jour vers les versions suivantes :
  + Slurm : 2024-11-22.

## SageMaker HyperPod Sortie d'AMI pour Slurm : 15 novembre 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20241115"></a>

**Mises à jour générales de l’AMI**
+ Dernier package `libnvidia-nscq-xxx` installé.

**SageMaker HyperPod Assistance DLAMI pour Slurm**

------
#### [ Deep Learning Slurm AMI ]
+ **Pilote NVIDIA :** 550.127.05
+ **Pilote EFA :** 2.13.0-1
+ Installation de la dernière version du SDK AWS Neuron
  + **aws-neuronx-collectives: v2.22.33.0-d2128d1aa**
  + **aws-neuronx-dkms: v2.17.17.0**
  + **aws-neuronx-oci-hook: v2.4.4.0**
  + **aws-neuronx-runtime-lib: v2.21.41.0**
  + **aws-neuronx-tools: v2.18.3.0**

------

## SageMaker HyperPod Sortie d'AMI pour Slurm : 11 novembre 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20241111"></a>

**Mises à jour générales de l’AMI**
+ DLAMI SageMaker HyperPod de base mis à jour vers la version suivante :
  + Slurm : 2024-10-23.

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 21 octobre 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20241021"></a>

**Mises à jour générales de l’AMI**
+ DLAMI SageMaker HyperPod de base mis à jour vers les versions suivantes :
  + Slurm : 2024-09-27.

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 10 septembre 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20240910"></a>

**SageMaker HyperPod Assistance DLAMI pour Slurm**

------
#### [ Deep Learning Slurm AMI ]
+ Installation du pilote NVIDIA v550.90.07
+ Installation du pilote EFA v2.10
+ Installation de la dernière version du SDK AWS Neuron
  + **aws-neuronx-collectives: v2.21.46.0**
  + **aws-neuronx-dkms: v2.17.17.0**
  + **aws-neuronx-oci-hook: v2.4.4.0**
  + **aws-neuronx-runtime-lib: v2.21.41.0**
  + **aws-neuronx-tools: v2.18.3.0**

------

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 14 mars 2024
<a name="sagemaker-hyperpod-release-ami-slurm-20240314"></a>

**HyperPod Correctif logiciel DLAMI pour Slurm**
+ Mise à niveau de [Slurm](https://slurm.schedmd.com/documentation.html) vers la version 23.11.1
+ Ajout d'[Open PMIx](https://openpmix.github.io/code/getting-the-reference-implementation) v4.2.6 pour activer [Slurm](https://slurm.schedmd.com/mpi_guide.html#pmix) avec. PMIx
+ Construit sur l’[AMI GPU AWS Deep Learning Base (Ubuntu 20.04)](https://aws.amazon.com/releasenotes/aws-deep-learning-base-gpu-ami-ubuntu-20-04/) publiée le 26/10/2023
+ Liste complète des packages préinstallés dans ce DLAMI HyperPod en plus de l'AMI de base
  + [Slurm](https://slurm.schedmd.com/documentation.html) : v23.11.1
  + [Ouvert PMIx ](https://openpmix.github.io/code/getting-the-reference-implementation) : v4.2.6
  + Munge : v0.5.15
  + `aws-neuronx-dkms` : v2.\$1
  + `aws-neuronx-collectives` : v2.\$1
  + `aws-neuronx-runtime-lib` : v2.\$1
  + `aws-neuronx-tools` : v2.\$1
  + SageMaker HyperPod progiciels prenant en charge des fonctionnalités telles que le contrôle de l'état du cluster et la reprise automatique

**Étapes de mise à niveau**
+ Exécutez la commande suivante pour appeler l'[UpdateClusterSoftware](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateClusterSoftware.html)API afin de mettre à jour vos HyperPod clusters existants avec le DLAMI le plus récent HyperPod . Pour obtenir des instructions supplémentaires, consultez [Mettre à jour le logiciel de SageMaker HyperPod plate-forme d'un cluster](sagemaker-hyperpod-operate-slurm-cli-command.md#sagemaker-hyperpod-operate-slurm-cli-command-update-cluster-software).
**Important**  
Sauvegardez votre travail avant d’exécuter cette API. Le processus d’application de correctifs remplace le volume racine par l’AMI mise à jour, ce qui signifie que les données précédemment stockées dans le volume racine de l’instance seront perdues. Assurez-vous de sauvegarder vos données depuis le volume racine de l'instance vers Amazon S3 ou Amazon FSx for Lustre. Pour de plus amples informations, veuillez consulter [Utilisez le script de sauvegarde fourni par SageMaker HyperPod](sagemaker-hyperpod-operate-slurm-cli-command.md#sagemaker-hyperpod-operate-slurm-cli-command-update-cluster-software-backup).

  ```
   aws sagemaker update-cluster-software --cluster-name your-cluster-name
  ```
**Note**  
Notez que vous devez exécuter la AWS CLI commande pour mettre à jour votre HyperPod cluster. La mise à jour du HyperPod logiciel via l'interface utilisateur de SageMaker HyperPod la console n'est actuellement pas disponible.

## SageMaker HyperPod Sortie de l'AMI pour Slurm : 29 novembre 2023
<a name="sagemaker-hyperpod-release-ami-slurm-20231129"></a>

**HyperPod Correctif logiciel DLAMI pour Slurm**

L'équipe HyperPod de service distribue des correctifs logiciels par le biais de[SageMaker HyperPod DLAMI](sagemaker-hyperpod-ref.md#sagemaker-hyperpod-ref-hyperpod-ami). Consultez les informations suivantes sur le dernier HyperPod DLAMI.
+ Construit sur l’[AMI GPU AWS Deep Learning Base (Ubuntu 20.04)](https://aws.amazon.com/releasenotes/aws-deep-learning-base-gpu-ami-ubuntu-20-04/) publiée le 18/10/2023
+ Liste complète des packages préinstallés dans ce DLAMI HyperPod en plus de l'AMI de base
  + [Slurm](https://slurm.schedmd.com/documentation.html) : v23.02.3
  + Munge : v0.5.15
  + `aws-neuronx-dkms` : v2.\$1
  + `aws-neuronx-collectives` : v2.\$1
  + `aws-neuronx-runtime-lib` : v2.\$1
  + `aws-neuronx-tools` : v2.\$1
  + SageMaker HyperPod progiciels prenant en charge des fonctionnalités telles que le contrôle de l'état du cluster et la reprise automatique

# SageMaker HyperPod Publications d'AMI pour Amazon EKS
<a name="sagemaker-hyperpod-release-ami-eks"></a>

Les notes de mise à jour suivantes présentent les dernières mises à jour des versions Amazon SageMaker HyperPod AMI pour l'orchestration Amazon EKS. Chaque note de mise à jour inclut une liste résumée des packages préinstallés ou préconfigurés pour le support SageMaker HyperPod DLAMIs Amazon EKS. Chaque DLAMI est basé AL2023 sur une version spécifique de Kubernetes et prend en charge cette dernière. Pour les versions HyperPod de DLAMI pour l'orchestration de Slurm, voir. [SageMaker HyperPod Publications d'AMI pour Slurm](sagemaker-hyperpod-release-ami-slurm.md) Pour plus d'informations sur les versions des SageMaker HyperPod fonctionnalités d'Amazon, consultez[Notes de SageMaker HyperPod publication d'Amazon](sagemaker-hyperpod-release-notes.md).

## SageMaker Publications de l'AMI Hyperpod pour Amazon EKS : 1er mars 2026
<a name="sagemaker-hyperpod-release-ami-eks-20260301"></a>

 **Mises à jour générales de l’AMI** 
+ Mises à jour publiées pour SageMaker l'AMI Hyperpod pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32, 1.33, 1.34.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker Assistance relative au DLAMI Hyperpod pour Amazon EKS** 

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.44 Python/3.10.17 Linux/5.10.248-247.988.amzn2.x86\$164 botocore/1.42.54
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.29 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.44 Python/3.10.17 Linux/5.10.248-247.988.amzn2.x86\$164 botocore/1.42.54
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.30 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.44 Python/3.10.17 Linux/5.10.248-247.988.amzn2.x86\$164 botocore/1.42.54
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.31 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.44 Python/3.10.17 Linux/5.10.248-247.988.amzn2.x86\$164 botocore/1.42.54
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.32 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.46 Python/3.10.17 Linux/5.10.248-247.988.amzn2.x86\$164 botocore/1.42.56
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.34 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.34.2-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.16.1g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.34.2-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.2
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300064.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------

## SageMaker Publications de l'AMI Hyperpod pour Amazon EKS : 12 février 2026
<a name="sagemaker-hyperpod-release-ami-eks-20260212"></a>

 **Mises à jour générales de l’AMI** 
+ Mises à jour publiées pour SageMaker l'AMI Hyperpod pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32, 1.33, 1.34.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker Assistance relative au DLAMI Hyperpod pour Amazon EKS** 

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.31 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.41
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.29 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.31 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.41
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.30 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.31 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.41
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.31 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.31 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.41
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.32 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.31 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.41
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.34 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.45.0
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.34.2-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version du programme d'installation EFA : 1.43.3
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.34.2-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.1
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------

## SageMaker Publications de l'AMI Hyperpod pour Amazon EKS : 25 janvier 2026
<a name="sagemaker-hyperpod-release-ami-eks-20260125"></a>

 **Mises à jour générales de l’AMI** 
+ Mises à jour publiées pour SageMaker l'AMI Hyperpod pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32, 1.33, 1.34.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker Assistance relative au DLAMI Hyperpod pour Amazon EKS** 

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.21 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.31
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.29 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.21 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.31
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.30 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.21 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.31
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.31 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.21 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.31
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.32 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.14 de Docker, version 0bab007
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.21 Python/3.10.17 Linux/5.10.247-246.989.amzn2.x86\$164 botocore/1.42.31
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.211.01
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.34 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.34.2-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.4
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.5
  + Version du pilote NVIDIA : 580.126.09
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.34.2-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.126.09
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300062.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------

## SageMaker Sortie de l'AMI Hyperpod pour Amazon EKS : 29 décembre 2025
<a name="sagemaker-hyperpod-release-ami-eks-20251229"></a>

 **Mises à jour générales de l’AMI** 
+ Mises à jour publiées pour SageMaker l'AMI Hyperpod pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32, 1.33.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker Assistance relative au DLAMI Hyperpod pour Amazon EKS** 

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.4 Python/3.10.17 Linux/5.10.245-245.983.amzn2.x86\$164 botocore/1.42.14
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.28.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.29 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.4 Python/3.10.17 Linux/5.10.245-245.983.amzn2.x86\$164 botocore/1.42.14
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.29.15-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.30 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.4 Python/3.10.17 Linux/5.10.245-245.983.amzn2.x86\$164 botocore/1.42.14
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.30.14-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0

------
#### [ Kubernetes v1.31 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.4 Python/3.10.17 Linux/5.10.245-245.983.amzn2.x86\$164 botocore/1.42.14
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.4
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.4
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.31.13-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.105.08
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.32 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,29
  + Version v2 de l'AWS CLI : aws-cli/1.44.4 Python/3.10.17 Linux/5.10.245-245.983.amzn2.x86\$164 botocore/1.42.14
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version en lvm2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.4
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.4
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.32.9-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.105.08
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.4
  + dans la version Neuronx DMS : 2.25.4.0
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 60.0
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd/v2 2.1.4
  + Version du pilote NVIDIA : 580.105.08
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.25
  + Version de Kubernetes : v1.33.5-eks-ecaa3a6
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.105.08
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------

## SageMaker Publications de l'AMI Hyperpod pour Amazon EKS : 22 novembre 2025
<a name="sagemaker-hyperpod-release-ami-eks-20251128"></a>

 **Mises à jour générales de l’AMI** 
+ Mises à jour publiées pour SageMaker l'AMI Hyperpod pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32, 1.33.
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

 **SageMaker Assistance relative au DLAMI Hyperpod pour Amazon EKS** 

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version v2 de l'AWS CLI : aws-cli/1.42.71 Python/3.10.17 Linux/5.10.245-241.978.amzn2.x86\$164 botocore/1.40.71
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.28.15-eks-473151a
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version LVM2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.28.15-eks-473151a
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.

------
#### [ Kubernetes v1.29 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version v2 de l'AWS CLI : aws-cli/1.42.71 Python/3.10.17 Linux/5.10.245-241.978.amzn2.x86\$164 botocore/1.40.71
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.29.15-eks-473151a
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version LVM2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.29.15-eks-473151a
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.

------
#### [ Kubernetes v1.30 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.2
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version v2 de l'AWS CLI : aws-cli/1.42.69 Python/3.10.17 Linux/5.10.245-241.976.amzn2.x86\$164 botocore/1.40.69
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.30.11-eks-473151a
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version LVM2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.30.11-eks-473151a
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.

------
#### [ Kubernetes v1.31 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version v2 de l'AWS CLI : aws-cli/1.42.71 Python/3.10.17 Linux/5.10.245-241.978.amzn2.x86\$164 botocore/1.40.71
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.31.7-eks-473151a
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version LVM2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.31.13-eks-113cf36
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.31.13-eks-113cf36
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.95.05
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.32 ]
+  **AL2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023** 
+ AL2 (x86\$164) :
  + Version du noyau Linux : 5.10
  + Version de Glibc : 2.26
  + Version d'OpenSSL : 1.0.2k-fips
  + FSx Version du client Lustre : 2.12.8
  + Version Docker : version 25.0.13 de Docker, version 0bab007
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version v2 de l'AWS CLI : aws-cli/1.42.74 Python/3.10.17 Linux/5.10.245-241.978.amzn2.x86\$164 botocore/1.40.74
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.2
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.7.16
  + Version de Kubernetes : v1.32.3-eks-473151a
  + Version des services iptables : 1.8.4
  + Version nginx : 1.20.1
  + Version nvme-cli : 1.11.1
  + version d'epel-release : 7
  + version anti-stress : 1.0.4
  + Version collectée : 5.8.1
  + Version ACL : 2.2.51
  + Version de rsyslog : 8.24.0
  + Version du client lustre : 2.12.8
  + version du système : 219
  + version d'openssh : 7.4
  + version sudo : 1.8.23
  + Version gcc : 7.3.1
  + Version de cmake : 2.8.12.2
  + Version git : 2.47.3
  + Version de marque : 3.82
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 1.3.0
  + Version LVM2 : 2.02,187
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.32.9-eks-113cf36
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.32.9-eks-113cf36
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.95.05
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du noyau Linux : 6.1
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + dans la version Neuronx DMS : 2.24.7.0
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.33.5-eks-113cf36
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 59.
+ AL2023 (ARM64):
  + Version du noyau Linux : 6.12
  + Version de Glibc : 2.34
  + Version d'OpenSSL : 3.2.2
  + FSx Version du client Lustre : 2.15.6
  + Version d'exécution : 1.3.3
  + Version conteneurisée : containerd github. com/containerd/containerd 1,7,27
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 12.8
  + Version du pilote ENA : 2.15.0g
  + Version de Python : 3.9.24
  + Version de Kubernetes : v1.33.5-eks-113cf36
  + Version des services iptables : 1.8.8
  + Version nginx : 1.28.0
  + Version de nvme-cli : 2,13 1,13
  + version anti-stress : 1.0.7
  + Version collectée : 5.12.0.
  + Version ACL : 2.3.1
  + Version du client lustre : 2.15.6
  + Version Nvidia-IMEX : 580.95.05
  + version du système : 252
  + version d'openssh : 8.7
  + version sudo : 1.9.15
  + Version gcc : 11.5.0
  + Version de cmake : 3.2.2
  + Version git : 2.50.1
  + Version de marque : 4.3
  + Version de l'agent CloudWatch : 1.300060.1
  + Version de nfs-utils : 2.5.4
  + Version en lvm2 : 2.03,16
  + Version ec2-instance-connect : 1.1
  + aws-cfn-bootstrap version : 2.0
  + Version RDMA-Core : 58.

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 7 novembre 2025
<a name="sagemaker-hyperpod-release-ami-eks-20251107"></a>

**Mises à jour générales de l’AMI**
+ Publication de mises à jour pour SageMaker HyperPod AMI pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32 et 1.33. 
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base)

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.28.15
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.28.15
+ Les mises à jour du package incluent les composants boto3, botocore, pip, regex, psutil et nvidia container toolkit.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.29 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.29.15
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.29.15
+ Les mises à jour du package incluent les mises à jour du noyau, les mises à jour de la glibc et diverses bibliothèques système.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.30 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.30.11
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.30.11
+ Les mises à jour du package incluent les mises à jour du noyau LivePatch et les mises à jour de la bibliothèque système.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.31 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.31.7
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.31.13
+ AL2023 (bras) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.31.13
  + Version du noyau : 6.12.46-66.121.amzn2023.aarch64
+ Les mises à jour du package incluent des mises à jour complètes de la bibliothèque système, des mises à jour du noyau et des mises à jour de la bibliothèque Boost.
+ Paquets ajoutés : apr-util-lmdb kernel-livepatch-6.1.156-177.286

------
#### [ Kubernetes v1.32 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.32.3
  + AWS Version de l'authentificateur IAM : v0.6.29
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.32.9
+ AL2023 (bras) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.32.9
  + Version du noyau : 6.12.46-66.121.amzn2023.aarch64
+ Les mises à jour du package incluent les mises à jour du noyau LivePatch et les mises à jour de la bibliothèque système.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.33.5
  + Version du noyau : 6.1.155-176.282.amzn2023.x86\$164
+ AL2023 (bras) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.33.5
  + Version du noyau : 6.12.46-66.121.amzn2023.aarch64
+ Les mises à jour du package incluent des mises à jour complètes de la bibliothèque système, des mises à jour du noyau et des mises à jour de la bibliothèque Boost.
+ Paquets ajoutés : apr-util-lmdb, kernel-livepatch updates

------

**Note**  
[La version runc a été mise à niveau vers la version 1.3.2. Bulletin de sécurité](https://aws.amazon.com/security/security-bulletins/rss/aws-2025-024/)

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 29 octobre 2025
<a name="sagemaker-hyperpod-release-ami-eks-20251029"></a>

**Mises à jour générales de l’AMI**
+ Publication de mises à jour pour SageMaker HyperPod AMI pour Amazon EKS versions 1.28, 1.29, 1.30, 1.31, 1.32 et 1.33. 
+ [La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/aws-deep-learning-ami-baseoss-aml2-2025-10-14.html)

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.28.15
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.28.15
+ Les mises à jour du package incluent les composants boto3, botocore, pip, regex, psutil et nvidia container toolkit.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.29 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.29.15
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.29.15
+ Les mises à jour du package incluent les mises à jour du noyau, les mises à jour de la glibc et diverses bibliothèques système.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.30 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.30.11
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.30.11
+ Les mises à jour du package incluent les mises à jour du noyau LivePatch et les mises à jour de la bibliothèque système.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.31 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.31.7
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.31.13
+ AL2023 (bras) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.31.13
  + Version du noyau : 6.12.46-66.121.amzn2023.aarch64
+ Les mises à jour du package incluent des mises à jour complètes de la bibliothèque système, des mises à jour du noyau et des mises à jour de la bibliothèque Boost.
+ Paquets ajoutés : apr-util-lmdb kernel-livepatch-6.1.156-177.286

------
#### [ Kubernetes v1.32 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ AL2 (x86\$164) :
  + Version du pilote NVIDIA : 570.195.03
  + Version CUDA : 12.8
  + Version de Kubernetes : 1.32.3
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.32.9
+ AL2023 (bras) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.32.9
  + Version du noyau : 6.12.46-66.121.amzn2023.aarch64
+ Les mises à jour du package incluent les mises à jour du noyau LivePatch et les mises à jour de la bibliothèque système.
+ Paquet ajouté : annotated-doc 0.0.3

------
#### [ Kubernetes v1.33 ]
+ AL2023 (x86\$164) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.33.5
  + Version du noyau : 6.1.155-176.282.amzn2023.x86\$164
+ AL2023 (bras) :
  + Version du pilote NVIDIA : 580.95.05
  + Version CUDA : 13,0
  + Version de Kubernetes : 1.33.5
  + Version du noyau : 6.12.46-66.121.amzn2023.aarch64
+ Les mises à jour du package incluent des mises à jour complètes de la bibliothèque système, des mises à jour du noyau et des mises à jour de la bibliothèque Boost.
+ Paquets ajoutés : apr-util-lmdb, kernel-livepatch updates

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 22 octobre 2025
<a name="sagemaker-hyperpod-release-ami-eks-20251022"></a>

**AL2x86**

**Note**  
Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023

[La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/aws-deep-learning-ami-baseoss-aml2-2025-10-14.html)
+ Versions d'EKS 1.28 à 1.32
+ Cette version contient des correctifs CVE pour les packages de pilotes NVIDIA concernés, disponibles dans le [bulletin de sécurité d'octobre de Nvidia](https://nvidia.custhelp.com/app/answers/detail/a_id/5703).
+ NVIDIA SMI

  ```
  NVIDIA-SMI 570.195.03             
  Driver Version: 570.195.03     
  CUDA Version: 12.8
  ```
+ Versions majeures  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-hyperpod-release-ami-eks.html)
+ Packages ajoutés : aucun package n'a été ajouté dans cette version.
+ Packages mis à jour  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-hyperpod-release-ami-eks.html)
+ Packages supprimés : aucun package n'a été supprimé dans cette version.

**AL2023x86**

[La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/aws-deep-learning-ami-gpubaseoss-al2023-2025-10-14.html)
+ Versions EKS 1.28 à 1.32. Aucune sortie pour la version 1.33 d'EKS.
+ Cette version contient des correctifs CVE pour les packages de pilotes NVIDIA concernés, disponibles dans le [bulletin de sécurité d'octobre de Nvidia](https://nvidia.custhelp.com/app/answers/detail/a_id/5703).
+ NVIDIA SMI

  ```
  NVIDIA-SMI 580.95.05             
  Driver Version: 580.95.05  
  CUDA Version: 13.0
  ```
+ Versions majeures  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-hyperpod-release-ami-eks.html)
+ Packages ajoutés : aucun package n'a été ajouté dans cette version.
+ Packages mis à jour  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-hyperpod-release-ami-eks.html)
+ Packages supprimés : aucun package n'a été supprimé dans cette version.

**AL2023 ARM64**

[La note de mise à jour du DLAMI de base est disponible ici.](https://docs.aws.amazon.com//dlami/latest/devguide/aws-deep-learning-ami-gpubaseossarm64-al2023-2025-10-14.html)
+ Versions d'EKS 1.31 à 1.33.
+ Cette version contient des correctifs CVE pour les packages de pilotes NVIDIA concernés, disponibles dans le [bulletin de sécurité d'octobre de Nvidia](https://nvidia.custhelp.com/app/answers/detail/a_id/5703).
+ NVIDIA SMI

  ```
  NVIDIA-SMI 580.95.05        
  Driver Version: 580.95.05    
  CUDA Version: 13.0
  ```
+ Versions majeures  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-hyperpod-release-ami-eks.html)
+ Packages ajoutés : aucun package n'a été ajouté dans cette version.
+ Packages mis à jour  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-hyperpod-release-ami-eks.html)
+ Packages supprimés : aucun package n'a été supprimé dans cette version.

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 29 septembre 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250929"></a>

**Mises à jour générales de l’AMI**
+ Sortie de la nouvelle SageMaker HyperPod AMI pour Amazon EKS 1.33. Pour plus d'informations, consultez les versions de l' SageMaker HyperPod AMI pour Amazon EKS datées du 29 septembre 2025.
**Important**  
L'API Kubernetes bêta d'allocation dynamique des ressources est activée par défaut dans cette version.  
Cette API améliore la planification et la surveillance des charges de travail qui nécessitent des ressources telles que GPUs.
Cette API a été développée par la communauté open source Kubernetes et pourrait changer dans les futures versions de Kubernetes. Avant d'utiliser l'API, consultez la [documentation de Kubernetes](https://kubernetes.io/docs/concepts/scheduling-eviction/dynamic-resource-allocation/) et comprenez comment elle affecte vos charges de travail.
HyperPod ne publie pas d'AMI HyperPod Amazon Linux 2 pour Kubernetes 1.33. AWS vous recommande de migrer vers AL2023. Pour plus d'informations, consultez la section [Mise à niveau d'Amazon Linux 2 vers AL2023](https://docs.aws.amazon.com/eks/latest/userguide/al2023.html).

Pour plus d'informations, consultez [Kubernetes](https://kubernetes.io/blog/2025/04/23/kubernetes-v1-33-release/) v1.33.

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ NVIDIA SMI :
  + Version du pilote NVIDIA : 570.172.08
  + Version CUDA : 12.8
+ Packages :
  + Langages et bibliothèques de base :
    + GCC : 11.5.0-5.amzn2023,0.5
    + GCC 14 : 14.2.1-7.amzn2023,0.1
    + Java : 17.0.16\$18-1.amzn2023.1
    + Perl : 5.32.1-477.amzn2023.0.7
    + Python : 3.9.23-1.amzn2023.0.3
    + Go : 3.2.0-37.amzn2023
    + Rouille : 1.89.0-1.amzn2023.0.2
  + Bibliothèques principales :
    + GlibC : 2.34-196.amzn2023,0.1
    + OpenSSL : 3.2.2-1.amzn2023.0.1
    + Zlib : 1.2.11-33.amzn2023.0.5
    + Utilitaire XZ : 5.2.5-9.amzn2023.0.2
    + Util-Linux : 2.37.4-1.amzn2023.0.4
  + Neurone :
    + aws-neuronx-dkms: 2.23.9.0-dkms
    + aws-neuronx-tools: 2,25,145,0-1
  + ÉFA :
    + pilote EVA : 2.17.2-1.amzn2023
    + configuration eva : 1.18-1.amzn2023
    + Date de sortie : 1.2.2-1.amzn2023
    + profil efa : 1.7-1.amzn2023
  + noyau :
    + noyau : 6.1.148-173.267.amzn2023
    + développement du noyau : 6.1.148-173.267.amzn2023
    + en-têtes du noyau : 6.1.148-173.267.amzn2023
    + outils du noyau : 6.1.148-173.267.amzn2023
    + modules de noyau supplémentaires : 6.1.148-173.267.amzn2023
    + Livepatch du noyau : 1.0-0.amzn2023
  + Nvidia :
    + boîte à outils pour conteneurs NVIDIA : 1.17.8-1
    + base de la boîte à outils NVIDIA Container : 1.17.8-1
    + libnvidia-container : 1.17.8-1 (avec outils)
    + gestionnaire de tissus NVIDIA : 570.172.08-1
    + libnvidia-nscq : 570.172.08-1

------
#### [ Kubernetes v1.29 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ NVIDIA SMI :
  + Version du pilote NVIDIA : 570.172.08
  + Version CUDA : 12.8
+ Packages :
  + Langages et bibliothèques de base :
    + GCC : 11.5.0-5.amzn2023,0.5
    + GCC 14 : 14.2.1-7.amzn2023,0.1
    + Java : 17.0.16\$18-1.amzn2023.1
    + Perl : 5.32.1-477.amzn2023.0.7
    + Python : 3.9.23-1.amzn2023.0.3
    + Go : 3.2.0-37.amzn2023
    + Rouille : 1.89.0-1.amzn2023.0.2
  + Bibliothèques principales :
    + GlibC : 2.34-196.amzn2023,0.1
    + OpenSSL : 3.2.2-1.amzn2023.0.1
    + Zlib : 1.2.11-33.amzn2023.0.5
    + Utilitaire XZ : 5.2.5-9.amzn2023.0.2
    + Util-Linux : 2.37.4-1.amzn2023.0.4
  + Neurone :
    + aws-neuronx-dkms: 2.23.9.0-dkms
    + aws-neuronx-tools: 2,25,145,0-1
  + ÉFA :
    + pilote EVA : 2.17.2-1.amzn2023
    + configuration eva : 1.18-1.amzn2023
    + Date de sortie : 1.2.2-1.amzn2023
    + profil efa : 1.7-1.amzn2023
  + noyau :
    + noyau : 6.1.148-173.267.amzn2023
    + développement du noyau : 6.1.148-173.267.amzn2023
    + en-têtes du noyau : 6.1.148-173.267.amzn2023
    + outils du noyau : 6.1.148-173.267.amzn2023
    + modules de noyau supplémentaires : 6.1.148-173.267.amzn2023
    + Livepatch du noyau : 1.0-0.amzn2023
  + Nvidia :
    + boîte à outils pour conteneurs NVIDIA : 1.17.8-1
    + base de la boîte à outils NVIDIA Container : 1.17.8-1
    + libnvidia-container : 1.17.8-1 (avec outils)
    + gestionnaire de tissus NVIDIA : 570.172.08-1
    + libnvidia-nscq : 570.172.08-1

------
#### [ Kubernetes v1.30 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ NVIDIA SMI :
  + Version du pilote NVIDIA : 570.172.08
  + Version CUDA : 12.8
+ Packages :
  + Langages et bibliothèques de base :
    + GCC : 11.5.0-5.amzn2023,0.5
    + GCC 14 : 14.2.1-7.amzn2023,0.1
    + Java : 17.0.16\$18-1.amzn2023.1
    + Perl : 5.32.1-477.amzn2023.0.7
    + Python : 3.9.23-1.amzn2023.0.3
    + Go : 3.2.0-37.amzn2023
    + Rouille : 1.89.0-1.amzn2023.0.2
  + Bibliothèques principales :
    + GlibC : 2.34-196.amzn2023,0.1
    + OpenSSL : 3.2.2-1.amzn2023.0.1
    + Zlib : 1.2.11-33.amzn2023.0.5
    + Utilitaire XZ : 5.2.5-9.amzn2023.0.2
    + Util-Linux : 2.37.4-1.amzn2023.0.4
  + Neurone :
    + aws-neuronx-dkms: 2.23.9.0-dkms
    + aws-neuronx-tools: 2,25,145,0-1
  + ÉFA :
    + pilote EVA : 2.17.2-1.amzn2023
    + configuration eva : 1.18-1.amzn2023
    + Date de sortie : 1.2.2-1.amzn2023
    + profil efa : 1.7-1.amzn2023
  + noyau :
    + noyau : 6.1.148-173.267.amzn2023
    + développement du noyau : 6.1.148-173.267.amzn2023
    + en-têtes du noyau : 6.1.148-173.267.amzn2023
    + outils du noyau : 6.1.148-173.267.amzn2023
    + modules de noyau supplémentaires : 6.1.148-173.267.amzn2023
    + Livepatch du noyau : 1.0-0.amzn2023
  + Nvidia :
    + boîte à outils pour conteneurs NVIDIA : 1.17.8-1
    + base de la boîte à outils NVIDIA Container : 1.17.8-1
    + libnvidia-container : 1.17.8-1 (avec outils)
    + gestionnaire de tissus NVIDIA : 570.172.08-1
    + libnvidia-nscq : 570.172.08-1

------
#### [ Kubernetes v1.31 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ NVIDIA SMI :
  + Version du pilote NVIDIA : 570.172.08
  + Version CUDA : 12.8
+ Packages :
  + Langages et bibliothèques de base :
    + GCC : 11.5.0-5.amzn2023,0.5
    + GCC 14 : 14.2.1-7.amzn2023,0.1
    + Java : 17.0.16\$18-1.amzn2023.1
    + Perl : 5.32.1-477.amzn2023.0.7
    + Python : 3.9.23-1.amzn2023.0.3
    + Go : 3.2.0-37.amzn2023
    + Rouille : 1.89.0-1.amzn2023.0.2
  + Bibliothèques principales :
    + GlibC : 2.34-196.amzn2023,0.1
    + OpenSSL : 3.2.2-1.amzn2023.0.1
    + Zlib : 1.2.11-33.amzn2023.0.5
    + Utilitaire XZ : 5.2.5-9.amzn2023.0.2
    + Util-Linux : 2.37.4-1.amzn2023.0.4
  + Neurone :
    + aws-neuronx-dkms: 2.23.9.0-dkms
    + aws-neuronx-tools: 2,25,145,0-1
  + ÉFA :
    + pilote EVA : 2.17.2-1.amzn2023
    + configuration eva : 1.18-1.amzn2023
    + Date de sortie : 1.2.2-1.amzn2023
    + profil efa : 1.7-1.amzn2023
  + noyau :
    + noyau : 6.1.148-173.267.amzn2023
    + développement du noyau : 6.1.148-173.267.amzn2023
    + en-têtes du noyau : 6.1.148-173.267.amzn2023
    + outils du noyau : 6.1.148-173.267.amzn2023
    + modules de noyau supplémentaires : 6.1.148-173.267.amzn2023
    + Livepatch du noyau : 1.0-0.amzn2023
  + Nvidia :
    + boîte à outils pour conteneurs NVIDIA : 1.17.8-1
    + base de la boîte à outils NVIDIA Container : 1.17.8-1
    + libnvidia-container : 1.17.8-1 (avec outils)
    + gestionnaire de tissus NVIDIA : 570.172.08-1
    + libnvidia-nscq : 570.172.08-1

------
#### [ Kubernetes v1.32 ]
+ **Amazon Linux 2 est désormais obsolète. L'AMI Kubernetes est basée sur. AL2023**
+ NVIDIA SMI :
  + Version du pilote NVIDIA : 570.172.08
  + Version CUDA : 12.8
+ Packages :
  + Langages et bibliothèques de base :
    + GCC : 11.5.0-5.amzn2023,0.5
    + GCC 14 : 14.2.1-7.amzn2023,0.1
    + Java : 17.0.16\$18-1.amzn2023.1
    + Perl : 5.32.1-477.amzn2023.0.7
    + Python : 3.9.23-1.amzn2023.0.3
    + Go : 3.2.0-37.amzn2023
    + Rouille : 1.89.0-1.amzn2023.0.2
  + Bibliothèques principales :
    + GlibC : 2.34-196.amzn2023,0.1
    + OpenSSL : 3.2.2-1.amzn2023.0.1
    + Zlib : 1.2.11-33.amzn2023.0.5
    + Utilitaire XZ : 5.2.5-9.amzn2023.0.2
    + Util-Linux : 2.37.4-1.amzn2023.0.4
  + Neurone :
    + aws-neuronx-dkms: 2.23.9.0-dkms
    + aws-neuronx-tools: 2,25,145,0-1
  + ÉFA :
    + pilote EVA : 2.17.2-1.amzn2023
    + configuration eva : 1.18-1.amzn2023
    + Date de sortie : 1.2.2-1.amzn2023
    + profil efa : 1.7-1.amzn2023
  + noyau :
    + noyau : 6.1.148-173.267.amzn2023
    + développement du noyau : 6.1.148-173.267.amzn2023
    + en-têtes du noyau : 6.1.148-173.267.amzn2023
    + outils du noyau : 6.1.148-173.267.amzn2023
    + modules de noyau supplémentaires : 6.1.148-173.267.amzn2023
    + Livepatch du noyau : 1.0-0.amzn2023
  + Nvidia :
    + boîte à outils pour conteneurs NVIDIA : 1.17.8-1
    + base de la boîte à outils NVIDIA Container : 1.17.8-1
    + libnvidia-container : 1.17.8-1 (avec outils)
    + gestionnaire de tissus NVIDIA : 570.172.08-1
    + libnvidia-nscq : 570.172.08-1

------
#### [ Kubernetes v1.33 ]

Le tableau suivant contient des informations sur les composants de cette version de l'AMI et les versions correspondantes.


| component | AL2023\$1x86 | AL2023\$1arm64 | 
| --- | --- | --- | 
| EKS | v1.33.4 | v1.33.4 | 
| amazon-ssm-agent | 3 mars 2299,0-1 mai 2023 | 3 mars 2299,0-1 mai 2023 | 
| aws-neuronx-dkms | 2.23.9.0-dkms | N/A | 
| containerd | 1.7.27-1.eks.amzn2023,0.4 | 1.7.27-1.eks.amzn2023,0.4 | 
| efa | 2.17.2-1. amzn2023 | 2.17.2-1. amzn2023 | 
| ena | 2,1,1 g | 2,1,1 g | 
| kernel | 6.12.40-64,114.amzn2023 | N/A | 
| noyau 6.12 | N/A | 6.12.40-64,114.amzn2023 | 
| kmod-nvidia-latest-dkms | 570,172.08-1 mai 2023 | 570.172.08-1.el9 | 
| nvidia-container-toolkit | 1,17,8-1 | 1,17,8-1 | 
| runc | 1.2.6-1.amzn2023,0.1 | 1.2.6-1.amzn2023,0.1 | 

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 25 août 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250825"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

Cette version inclut les mises à jour suivantes :

------
#### [ Kubernetes v1.28 ]

**NVIDIA SMI :**
+ Version du pilote Nvidia : 570.172.08
+ Version CUDA : 12.8

**Packages ajoutés :**
+ kernel-livepatch-5.10.240-238.955.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Packages mis à jour :**
+ gdk-pixbuf2.x86\$164 : 2.36.12-3.amzn2 → 2.36.12-3.amzn2.0.2
+ kernel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-devel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-headers.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-tools.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ libgs.x86\$164 : 9.54.0-9.amzn2.0.11 → 9.54.0-9.amzn2.0.12
+ microcode\$1ctl.x86\$164 : 2:2.1-47.amzn2.4.24 → 2:2.1-47.amzn2.4.25
+ pam.x86\$164 : 1.1.8-23.amzn2.0.2 → 1.1.8-23.amzn2.0.4

**Packages supprimés :**
+ kernel-livepatch-5.10.239-236.958.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Référentiel modifié :**
+ libnvidia-container-tools.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ libnvidia-container1.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit-base.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit

------
#### [ Kubernetes v1.29 ]

**NVIDIA SMI :**
+ Version du pilote Nvidia : 570.172.08
+ Version CUDA : 12.8

**Packages ajoutés :**
+ kernel-livepatch-5.10.240-238.955.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Packages mis à jour :**
+ gdk-pixbuf2.x86\$164 : 2.36.12-3.amzn2 → 2.36.12-3.amzn2.0.2
+ kernel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-devel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-headers.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-tools.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ libgs.x86\$164 : 9.54.0-9.amzn2.0.11 → 9.54.0-9.amzn2.0.12
+ microcode\$1ctl.x86\$164 : 2:2.1-47.amzn2.4.24 → 2:2.1-47.amzn2.4.25
+ pam.x86\$164 : 1.1.8-23.amzn2.0.2 → 1.1.8-23.amzn2.0.4

**Packages supprimés :**
+ kernel-livepatch-5.10.239-236.958.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Référentiel modifié :**
+ libnvidia-container-tools.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ libnvidia-container1.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit-base.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit

------
#### [ Kubernetes v1.30 ]

**NVIDIA SMI :**
+ Version du pilote Nvidia : 570.172.08
+ Version CUDA : 12.8

**Packages ajoutés :**
+ kernel-livepatch-5.10.240-238.955.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Packages mis à jour :**
+ aws-neuronx-dkms.noarch : 2.22.2.0-dkms → 2.23.9.0-dkms
+ efa.x86\$164 : 2.15.3-1.amzn2 → 2.17.2-1.amzn2
+ efa-nv-peermem.x86\$164 : 1.2.1-1.amzn2 → 1.2.2-1.amzn2
+ gdk-pixbuf2.x86\$164 : 2.36.12-3.amzn2 → 2.36.12-3.amzn2.0.2
+ ibacm.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ infiniband-diags.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ kernel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-devel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-headers.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-tools.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ libfabric-aws.x86\$164 : 2.1.0amzn3.0-1.amzn2 → 2.1.0amzn5.0-1.amzn2
+ libfabric-aws-devel.x86\$164 : 2,10amzn3.0-1.amzn2 → 2,10amzn5.0-1.amzn2
+ libgs.x86\$164 : 9.54.0-9.amzn2.0.11 → 9.54.0-9.amzn2.0.12
+ libibumad.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libibverbs.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libibverbs-core.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libibverbs-utils.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libnccl-ofi.x86\$164 : 1.15.0-1.amzn2 → 1.16.2-1.amzn2
+ librdmacm.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ librdmacm-utils.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ microcode\$1ctl.x86\$164 : 2:2.1-47.amzn2.4.24 → 2:2.1-47.amzn2.4.25
+ pam.x86\$164 : 1.1.8-23.amzn2.0.2 → 1.1.8-23.amzn2.0.4
+ rdma-core.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ rdma-core-devel.x86\$164 : 57 .amzn1-1.amzn2.0.2 → 58 .amzn0-1.amzn2.0.2

**Packages supprimés :**
+ kernel-livepatch-5.10.239-236.958.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Référentiel modifié :**
+ libnvidia-container-tools.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ libnvidia-container1.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit-base.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit

------
#### [ Kubernetes v1.31 ]

**NVIDIA SMI :**
+ Version du pilote Nvidia : 570.172.08
+ Version CUDA : 12.8

**Packages ajoutés :**
+ kernel-livepatch-5.10.240-238.955.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Packages mis à jour :**
+ gdk-pixbuf2.x86\$164 : 2.36.12-3.amzn2 → 2.36.12-3.amzn2.0.2
+ kernel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-devel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-headers.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-tools.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ libgs.x86\$164 : 9.54.0-9.amzn2.0.11 → 9.54.0-9.amzn2.0.12
+ microcode\$1ctl.x86\$164 : 2:2.1-47.amzn2.4.24 → 2:2.1-47.amzn2.4.25
+ pam.x86\$164 : 1.1.8-23.amzn2.0.2 → 1.1.8-23.amzn2.0.4

**Packages supprimés :**
+ kernel-livepatch-5.10.239-236.958.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Référentiel modifié :**
+ libnvidia-container-tools.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ libnvidia-container1.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit-base.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit

------
#### [ Kubernetes v1.32 ]

**NVIDIA SMI :**
+ Version du pilote Nvidia : 570.172.08
+ Version CUDA : 12.8

**Packages ajoutés :**
+ kernel-livepatch-5.10.240-238.955.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Packages mis à jour :**
+ aws-neuronx-dkms.noarch : 2.22.2.0-dkms → 2.23.9.0-dkms
+ efa.x86\$164 : 2.15.3-1.amzn2 → 2.17.2-1.amzn2
+ efa-nv-peermem.x86\$164 : 1.2.1-1.amzn2 → 1.2.2-1.amzn2
+ gdk-pixbuf2.x86\$164 : 2.36.12-3.amzn2 → 2.36.12-3.amzn2.0.2
+ ibacm.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ infiniband-diags.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ kernel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-devel.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-headers.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ kernel-tools.x86\$164 : 5.10.239-236.958.amzn2 → 5.10.240-238.955.amzn2
+ libfabric-aws.x86\$164 : 2.1.0amzn3.0-1.amzn2 → 2.1.0amzn5.0-1.amzn2
+ libfabric-aws-devel.x86\$164 : 2,10amzn3.0-1.amzn2 → 2,10amzn5.0-1.amzn2
+ libgs.x86\$164 : 9.54.0-9.amzn2.0.11 → 9.54.0-9.amzn2.0.12
+ libibumad.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libibverbs.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libibverbs-core.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libibverbs-utils.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ libnccl-ofi.x86\$164 : 1.15.0-1.amzn2 → 1.16.2-1.amzn2
+ librdmacm.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ librdmacm-utils.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ microcode\$1ctl.x86\$164 : 2:2.1-47.amzn2.4.24 → 2:2.1-47.amzn2.4.25
+ pam.x86\$164 : 1.1.8-23.amzn2.0.2 → 1.1.8-23.amzn2.0.4
+ rdma-core.x86\$164 : 57.amzn1-1.amzn2.0.2 → 58.amzn0-1.amzn2.0.2
+ rdma-core-devel.x86\$164 : 57 .amzn1-1.amzn2.0.2 → 58 .amzn0-1.amzn2.0.2

**Packages supprimés :**
+ kernel-livepatch-5.10.239-236.958.x86\$164 1.0-0.amzn2 amzn2extra-kernel-5.10

**Référentiel modifié :**
+ libnvidia-container-tools.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ libnvidia-container1.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit
+ nvidia-container-toolkit-base.x86\$164 : cuda-rhel8-x86\$164 → nvidia-container-toolkit

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 12 août 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250812"></a>

**L'AMI inclut les éléments suivants :**
+  AWS Service pris en charge : Amazon EC2
+ Système d'exploitation : Amazon Linux 2023
+ Architecture informatique : ARM64
+ La dernière version disponible est installée pour les packages suivants :
  + Noyau Linux : 6.12
  + FSx Lustre
  + Docker
  + AWS CLI v2 à `/usr/bin/aws`
  + NVIDIA DCGM
  + Boîte à outils pour conteneurs Nvidia :
    + Commande de version : `nvidia-container-cli -V`
  + NVidia-Docker 2 :
    + Commande de version : `nvidia-docker version`
  + NVidia-IMEX : v570.172.08-1
+ Pilote NVIDIA : 570.158.01
+ Pile NVIDIA CUDA 12,4, 12,5, 12,6, 12,8 :
  + Répertoires d'installation CUDA, NCCL et CudDN : `/usr/local/cuda-xx.x/`
    + Exemple : `/usr/local/cuda-12.8/`, `/usr/local/cuda-12.8/`
  + Version NCCL compilée :
    + Pour le répertoire CUDA de 12.4, compilé la version 2.22.3\$1 4 de NCCL CUDA12
    + Pour le répertoire CUDA de 12.5, compilé la version 2.22.3\$1 .5 de NCCL CUDA12
    + Pour le répertoire CUDA de 12.6, compilé la version NCCL 2.24.3\$1 .6 CUDA12
    + Pour le répertoire CUDA de 12.8, compilé la version 2.27.5\$1 de NCCL. CUDA12
  + CUDA par défaut : 12,8
    + PATH `/usr/local/cuda` pointe vers CUDA 12.8
    + Mise à jour des variables d'environnement ci-dessous :
      + `LD_LIBRARY_PATH`avoir `/usr/local/cuda-12.8/lib:/usr/local/cuda-12.8/lib64:/usr/local/cuda-12.8:/usr/local/cuda-12.8/targets/sbsa-linux/lib:/usr/local/cuda-12.8/nvvm/lib64:/usr/local/cuda-12.8/extras/CUPTI/lib64`
      + `PATH`avoir `/usr/local/cuda-12.8/bin/:/usr/local/cuda-12.8/include/`
      + Pour toute version différente de CUDA, veuillez la mettre à jour `LD_LIBRARY_PATH` en conséquence.
+ Installateur EFA : 1.42.0
+ Nvidia GDRCopy : 2,5.1
+ AWS Le plugin OFI NCCL est fourni avec le programme d'installation EFA
  + Les chemins `/opt/amazon/ofi-nccl/lib` et `/opt/amazon/ofi-nccl/efa` sont ajoutés à`LD_LIBRARY_PATH`.
+ AWS CLI v2 à `/usr/local/bin/aws`
+ Type de volume EBS : GP3
+ Python: `/usr/bin/python3.9`

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 6 août 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250806"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

Ils AMIs incluent les mises à jour suivantes :

------
#### [ K8s v1.28 ]
+ **Packages Neuron :**
  + **aws-neuronx-collectives: 2,27,34.0\$1ec8cd5e8b-1**
  + **aws-neuronx-dkms: 2.23.9.0-dkms**
  + **aws-neuronx-runtime-lib: 2,27.23,0\$18deec4dbf-1**
  + **aws-neuronx-k8 plugins : 2.27.7.0-1**
  + **aws-neuronx-kPlanificateur 8** : 2.27.7.0-1
  + **aws-neuronx-tools: 2,25,145,0-1**

------
#### [ K8s v1.29 ]
+ **Packages Neuron :**
  + **aws-neuronx-collectives: 2,27,34.0\$1ec8cd5e8b-1**
  + **aws-neuronx-dkms: 2.23.9.0-dkms**
  + **aws-neuronx-runtime-lib: 2,27.23,0\$18deec4dbf-1**
  + **aws-neuronx-k8 plugins : 2.27.7.0-1**
  + **aws-neuronx-kPlanificateur 8** : 2.27.7.0-1
  + **aws-neuronx-tools: 2,25,145,0-1**

------
#### [ K8s v1.30 ]
+ **Packages Neuron :**
  + **aws-neuronx-collectives: 2,27,34.0\$1ec8cd5e8b-1**
  + **aws-neuronx-dkms: 2.23.9.0-dkms**
  + **aws-neuronx-runtime-lib: 2,27.23,0\$18deec4dbf-1**
  + **aws-neuronx-k8 plugins : 2.27.7.0-1**
  + **aws-neuronx-kPlanificateur 8** : 2.27.7.0-1
  + **aws-neuronx-tools: 2,25,145,0-1**

------
#### [ K8s v1.31 ]
+ **Packages Neuron :**
  + **aws-neuronx-collectives: 2,27,34.0\$1ec8cd5e8b-1**
  + **aws-neuronx-dkms: 2.23.9.0-dkms**
  + **aws-neuronx-runtime-lib: 2,27.23,0\$18deec4dbf-1**
  + **aws-neuronx-k8 plugins : 2.27.7.0-1**
  + **aws-neuronx-kPlanificateur 8** : 2.27.7.0-1
  + **aws-neuronx-tools: 2,25,145,0-1**

------
#### [ K8s v1.32 ]
+ **Packages Neuron :**
  + **aws-neuronx-collectives: 2,27,34.0\$1ec8cd5e8b-1**
  + **aws-neuronx-dkms: 2.23.9.0-dkms**
  + **aws-neuronx-runtime-lib: 2,27.23,0\$18deec4dbf-1**
  + **aws-neuronx-k8 plugins : 2.27.7.0-1**
  + **aws-neuronx-kPlanificateur 8** : 2.27.7.0-1
  + **aws-neuronx-tools: 2,25,145,0-1**

------

**Important**  
AMI de pilote Nvidia OSS Deep Learning Base (Amazon Linux 2) version 70.3
AMI de pilote Nvidia propriétaire Deep Learning Base (Amazon Linux 2) version 68.4
Dernière prise en charge CUDA 12.8
Mise à niveau du pilote Nvidia de 570.158.01 à 570.172.08 pour corriger les CVE présents dans le bulletin de sécurité Nvidia de juillet

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 31 juillet 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250731"></a>

Amazon prend SageMaker HyperPod désormais en charge une nouvelle AMI pour les clusters Amazon EKS qui met à jour le système d'exploitation de base vers Amazon Linux 2023. Cette version apporte plusieurs améliorations par rapport à Amazon Linux 2 (AL2). HyperPod publie AMIs régulièrement de nouvelles versions, et nous vous recommandons d'exécuter tous vos HyperPod clusters sur les versions les plus récentes et les plus sécurisées de AMIs afin de corriger les vulnérabilités et de supprimer progressivement les logiciels et bibliothèques obsolètes.

### Mises à niveau clés
<a name="sagemaker-hyperpod-release-ami-eks-20250731-specs"></a>
+ **Système d'exploitation** : Amazon Linux 2023 (mis à jour depuis Amazon Linux 2, ou AL2)
+ **Gestionnaire de packages** : DNF est l'outil de gestion de packages par défaut, remplaçant YUM utilisé dans AL2
+ **Service réseau** : `systemd-networkd` gère les interfaces réseau, en remplacement de l'ISC `dhclient` utilisé dans AL2
+ **Noyau Linux** : version 6.1, mise à jour à partir du noyau utilisé dans AL2
+ **Glibc** : Version 2.34, mise à jour à partir de la version en AL2
+ **GCC** : Version 11.5.0, mise à jour à partir de la version en AL2
+ **NFS** : Version 1:2.6 .1, mise à jour depuis la version 1:1.3 .4 dans AL2
+ **Pilote NVIDIA** : version 570.172.08, version plus récente du pilote
+ **Python** : Version 3.9, remplaçant Python 2.7 utilisé dans AL2
+ **NVME** : version 1.11.1, une version plus récente du pilote NVMe 

### Avant la mise à niveau
<a name="sagemaker-hyperpod-release-ami-eks-20250731-prereqs"></a>

Il y a quelques points importants à connaître avant de procéder à la mise à niveau. Avec AL2023, plusieurs packages ont été ajoutés, mis à niveau ou supprimés par rapport à AL2. Nous vous recommandons vivement de tester vos applications avec AL2023 avant de mettre à niveau vos clusters. Pour obtenir une liste complète de toutes les modifications apportées aux packages AL2023, consultez la section [Modifications de packages dans Amazon Linux 2023](https://docs.aws.amazon.com/linux/al2023/release-notes/compare-packages.html).

Voici certains des principaux changements intervenus entre AL2 et AL2023 :
+ **Python 3.10** : la mise à jour la plus importante, hormis le système d’exploitation, est la mise à niveau de la version de Python. Après la mise à niveau, les clusters utilisent Python 3.10 par défaut. Certaines charges de travail d’entraînement distribuées en Python 3.8 peuvent être compatibles avec Python 3.10, mais nous vous recommandons vivement de tester vos charges de travail spécifiques séparément. Si la migration vers Python 3.10 s’avère difficile mais que vous souhaitez tout de même mettre à niveau votre cluster pour d’autres nouvelles fonctionnalités, vous pouvez installer une ancienne version de Python en utilisant la commande `yum install python-xx.x` avec des [scripts de cycle de vie](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod-lifecycle-best-practices-slurm.html) avant d’exécuter des charges de travail. Assurez-vous de tester la compatibilité de vos scripts de cycle de vie existants et de votre code d’application.
+ Mise en œuvre de l'environnement **d'exécution NVIDIA** : applique AL2023 strictement les exigences d'exécution des conteneurs NVIDIA, ce qui entraîne l'échec des conteneurs contenant des variables d'environnement NVIDIA codées en dur (telles que`NVIDIA_VISIBLE_DEVICES: "all"`) sur les nœuds dotés uniquement du processeur (alors qu'ils AL2 ignorent ces paramètres en l'absence de pilote GPU). Vous pouvez annuler l’application en définissant `NVIDIA_VISIBLE_DEVICES: "void"` dans votre spécification de pod ou en utilisant des images de CPU uniquement.
+ **cgroup v2** : AL2023 propose la prochaine génération de hiérarchie de groupes de contrôle unifiée (cgroup v2). cgroup v2 est utilisé pour les exécutions de conteneurs et est également utilisé par. `systemd` Bien qu' AL2023 elle contienne toujours du code permettant au système de fonctionner à l'aide de cgroup v1, cette configuration n'est pas recommandée.
+ **Amazon VPC CNI et `eksctl` versions** : nécessite AL2023 également que votre version Amazon VPC CNI soit 1.16.2 ou supérieure et que votre version soit 0.176.0 ou supérieure. `eksctl`
+ **EFA on FSx for Lustre** : vous pouvez désormais utiliser EFA on FSx for Lustre, qui vous permet d'obtenir des performances applicatives comparables à celles des clusters sur site AI/ML ou HPC (calcul haute performance), tout en bénéficiant de l'évolutivité, de la flexibilité et de l'élasticité du cloud computing.

En outre, la mise à niveau vers AL2023 une version minimale `1.0.643.0_1.0.192.0` de Health Monitoring Agent est requise. Suivez la procédure ci-dessous pour mettre à jour l’agent de surveillance de l’état :

1. Si vous utilisez des scripts de HyperPod cycle de vie depuis le GitHub référentiel [awsome-distributed-training](https://github.com/aws-samples/awsome-distributed-training)), veillez à extraire la dernière version. Les versions antérieures ne sont pas compatibles avec AL2023. Le nouveau script de cycle de vie garantit qu'il `containerd` utilise le stockage monté supplémentaire pour intégrer les images des conteneurs AL2023.

1. Insérez la dernière version du [référentiel git de la HyperPod CLI](https://github.com/aws/sagemaker-hyperpod-cli/tree/main).

1. Mettez à jour les dépendances à l’aide de la commande suivante : `helm dependencies update helm_chart/HyperPodHelmChart`

1. Comme indiqué à l'étape 4 du [fichier README de HyperPodHelmChart](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#step-four-whenever-you-want-to-upgrade-the-installation-of-helm-charts), exécutez la commande suivante pour mettre à niveau la version des dépendances exécutées sur le cluster : `helm upgrade dependencies helm_chart/HyperPodHelmChart -namespace kube-system`

### Charges de travail testées sur les clusters EKS mis à niveau
<a name="sagemaker-hyperpod-release-ami-eks-20250731-tested"></a>

Voici quelques cas d’utilisation pour lesquels la mise à niveau a été testée :
+ **Rétrocompatibilité** : les tâches de formation distribuée les plus courantes impliquant PyTorch devraient être rétrocompatibles sur la nouvelle AMI. Toutefois, étant donné que vos charges de travail peuvent dépendre de bibliothèques Python ou Linux spécifiques, nous vous recommandons de commencer par effectuer des tests à plus petite échelle ou sur un sous-ensemble de nœuds avant de mettre à niveau vos clusters plus importants.
+ **Tests d'accélérateurs** : des tâches sur différents types d'instances, utilisant à la fois les accélérateurs NVIDIA (pour les familles d'instances P et G) et les accélérateurs AWS Neuron (pour les instances Trn) ont été testées.

### Comment mettre à niveau votre AMI et les charges de travail associées
<a name="sagemaker-hyperpod-release-ami-eks-20250731-upgrade"></a>

Vous pouvez effectuer la mise à niveau vers la nouvelle AMI à l’aide de l’une des méthodes suivantes :
+ Utilisez l’API [create-cluster](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateCluster.html) pour créer un nouveau cluster avec l’AMI la plus récente.
+ Utilisez l'[update-cluster-software](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateClusterSoftware.html)API pour mettre à niveau votre cluster existant. Notez que cette option réexécute tous les scripts de cycle de vie.

Le cluster est indisponible au cours du processus de mise à jour. Nous vous recommandons de planifier cette durée d’indisponibilité et de redémarrer la charge de travail d’entraînement à partir d’un point de contrôle existant une fois la mise à niveau terminée. En guise de bonne pratique, nous vous recommandons d’effectuer des tests sur un cluster plus petit avant de mettre à niveau vos clusters de plus grande taille.

Si la commande de mise à jour échoue, commencez par identifier la cause de l’échec. En cas d’échec des scripts de cycle de vie, apportez les corrections nécessaires à vos scripts et réessayez. Pour tout autre problème qui ne peut être résolu, contactez [AWS Support](https://aws.amazon.com/premiumsupport/).

### Résolution des problèmes
<a name="sagemaker-hyperpod-release-ami-eks-20250731-troubleshooting"></a>

Utilisez la section suivante pour vous aider à résoudre les problèmes que vous rencontrez lors de la mise à niveau vers AL2023.

**Comment corriger des erreurs telles que `"nvml error: driver not loaded: unknown"` sur des nœuds de cluster de CPU uniquement ?**

Si les conteneurs qui fonctionnaient sur les nœuds du processeur AL2 Amazon EKS échouent maintenant AL2023, il est possible que l'image de votre conteneur contienne des variables d'environnement NVIDIA codées en dur. Vous pouvez vérifier la présence de variables d’environnement codées en dur à l’aide de la commande suivante :

```
docker inspect image:tag | grep -i nvidia
```

AL2023 applique strictement ces exigences alors qu'il AL2 était plus indulgent pour les nœuds utilisant uniquement le processeur. L'une des solutions consiste à annuler l' AL2023 application en définissant certaines variables d'environnement NVIDIA dans les spécifications de votre pod Amazon EKS, comme illustré dans l'exemple suivant :

```
yaml
containers:
- name: your-container
image: your-image:tag
env:
- name: NVIDIA_VISIBLE_DEVICES
value: "void"
- name: NVIDIA_DRIVER_CAPABILITIES
value: ""
```

Une autre alternative consiste à utiliser des images de conteneur de CPU uniquement (telles que `pytorch/pytorch:latest-cpu`) ou à générer des images personnalisées sans dépendances NVIDIA.

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 15 juillet 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250715"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

Ils AMIs incluent les mises à jour suivantes :

------
#### [ K8s v1.28 ]
+ **Dernier pilote NVIDIA :** 550.163.01
+ **CUDA par défaut :** 12.4
+ **Programme d’installation d’EFA :** 1.38.0
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,26,43,0\$147cc904ea-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,16,2,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,16,1,0\$10a6506a47-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,26,42,0\$12ff3b5c7d-1**
  + **aws-neuronx-tools.x86\$164** : 2,24,54,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.29 ]
+ **Version du pilote Nvidia :** 550.163.01
+ **Version CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.38.0
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,26,43,0\$147cc904ea-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,16,2,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,16,1,0\$10a6506a47-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,26,42,0\$12ff3b5c7d-1**
  + **aws-neuronx-tools.x86\$164** : 2,24,54,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.30 ]
+ **Version du pilote Nvidia :** 550.163.01
+ **Version CUDA :** 12.4
+ **Version du programme d’installation EFA :** 1.38.0
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,26,43,0\$147cc904ea-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,16,2,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,16,1,0\$10a6506a47-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,26,42,0\$12ff3b5c7d-1**
  + **aws-neuronx-tools.x86\$164** : 2,24,54,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.31 ]
+ **Version du pilote Nvidia :** 550.163.01
+ **Version CUDA :** 12.4
+ **Version du programme d’installation EFA :** 1.38.0
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,26,43,0\$147cc904ea-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,16,2,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,16,1,0\$10a6506a47-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,26,42,0\$12ff3b5c7d-1**
  + **aws-neuronx-tools.x86\$164** : 2,24,54,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.32 ]
+ **Version du pilote Nvidia :** 550.163.01
+ **Version CUDA :** 12.4
+ **Version du programme d’installation EFA :** 1.38.0
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,26,43,0\$147cc904ea-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,16,2,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,16,1,0\$10a6506a47-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,26,26,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,26,42,0\$12ff3b5c7d-1**
  + **aws-neuronx-tools.x86\$164** : 2,24,54,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 9 juin 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250609"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

------
#### [ Neuron SDK Updates ]
+ **aws-neuronx-dkms.noarch :** 2.21.37.0 (à partir de 2.20.74.0)

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 22 mai 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250522"></a>

**Mises à jour générales de l’AMI**

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

------
#### [ Deep Learning Base AMI AL2 ]
+ **Dernier pilote NVIDIA :** 550.163.01
+ **Mises à jour de la pile CUDA :**
  + **CUDA par défaut :** 12.1
  + **Version NCCL :** 2.22.3
+ **Programme d’installation d’EFA :** 1.38.0
+ **AWS NFC OFI : 1.13.2**
+ **Noyau Linux :** 5.10
+ **GDRCopy:** 2,4

**Important**  
**Mise à jour NVIDIA Container Toolkit 1.17.4 :** le montage des bibliothèques compatibles CUDA est désormais désactivé.
**Mises à jour EFA de 1.37 à 1.38 :**  
AWS Le plugin OFI NCCL se trouve désormais dans/-nccl opt/amazon/ofi
L'emplacement précédent /opt/aws-ofi-nccl/est obsolète

------
#### [ Neuron SDK Updates ]
+ **aws-neuronx-dkms.noarch :** 2.20.74.0 (à partir de 2.20.28.0)
+ **aws-neuronx-collectives.x86\$164 : 2.25.65.0\$19858ac9a1-1 (depuis** 2.24.59.0\$1838c7fc8b-1)
+ **aws-neuronx-runtime-lib.x86\$164 : 2.25.57.0\$1166c7a468-1 (**à partir de 2.24.53.0\$1f239092cc-1)
+ **aws-neuronx-tools.x86\$164 :** 2.23.9.0 (à partir de 2.22.61.0)
+ **aws-neuronx-gpsimd-customop-lib.x86\$164 :** 0.15.12.0 (à partir du 0.14.12.0)
+ **aws-neuronx-gpsimd-tools.x86\$164 : 0.15.1.0\$15d31b6a3f** (à partir de 0.14.6.0\$1241eb69f4)
+ **aws-neuronx-k8-plugin.x86\$164** : 2.25.24.0 (depuis 2.24.23.0)
+ **aws-neuronx-k8-scheduler.x86\$164** : 2.25.24.0 (à partir de 2.24.23.0)

**Remarques de prise en charge :**
+ Les composants de l’AMI, y compris les versions de CUDA, peuvent être supprimés ou modifiés en fonction de la politique de prise en charge du cadre
+ La version du noyau est épinglée pour des raisons de compatibilité. Les utilisateurs doivent éviter les mises à jour, sauf si elles sont requises pour des correctifs de sécurité
+ Pour les instances EC2 avec plusieurs cartes réseau, reportez-vous au guide de configuration EFA pour une configuration correcte

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 7 mai 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250507"></a>

------
#### [ Installed the latest version of AWS Neuron SDK ]
+ **tensorflow-model-server-neuron.x86\$164** 2.8.0.2.3.0.0-0 neurone

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 28 avril 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250428"></a>

**Améliorations pour K8s**
+ Mise à niveau du pilote NVIDIA de la version 550.144.03 à la version 550.163.01. Cette mise à niveau vise à remédier aux vulnérabilités et expositions courantes (CVEs) présentes dans le [bulletin de sécurité de l'affichage des GPU NVIDIA d'avril 2025](https://nvidia.custhelp.com/app/answers/detail/a_id/5630).

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

------
#### [ Installed the latest version of AWS Neuron SDK ]
+ **aws-neuronx-dkms.noarch** : 2.20.28.0-dkms
+ **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
+ **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
+ **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
+ **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
+ **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
+ **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
+ **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
+ **aws-neuron-tools.x86\$164** : 2,14,0-1
+ **aws-neuronx-collectives.x86\$164 : 2,24,59,0\$1838c7fc8b-1**
+ **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
+ **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,14,12,0-1
+ **aws-neuronx-gpsimd-tools.x86\$164 : 0,14,6,0\$1241eb69f4-1**
+ **aws-neuronx-k8-plugin.x86\$164** : 2.24.23,0-1
+ **aws-neuronx-k8-scheduler.x86\$164** : 2,24.23,0-1
+ **aws-neuronx-runtime-lib.x86\$164 : 2,24,53,0\$1f239092cc-1**
+ **aws-neuronx-tools.x86\$164** : 2,22,61,0-1
+ **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 18 avril 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250418"></a>

**Mises à jour générales de l’AMI**
+ Nouvelle SageMaker HyperPod AMI pour Amazon EKS 1.32.1.

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

 AMIs Il s'agit notamment des éléments suivants :

------
#### [ Deep Learning EKS AMI 1.32.1 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.32.1
  + Version de containerd : 1.7.27
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.29
+ **Amazon SSM Agent :** 3.3.1611.0 
+ **Noyau Linux :** 5.10.235
+ **Pilote OSS Nvidia :** 550.163.01
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.38.0
+ **GDRCopy: 2.4.1-1**
+ **Kit d’outils pour conteneurs Nvidia :** 1.17.6
+ **AWS NFC OFI : 1.13.2**
+ **aws-neuronx-tools: 2,18,3.0**
+ **aws-neuronx-runtime-lib: 2,24,53,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,20,28,0**
+ **aws-neuronx-collectives: 2,24,59,0**

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 18 février 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250218"></a>

**Améliorations pour K8s**
+ Mise à niveau du kit d’outils pour conteneurs Nvidia de la version 1.17.3 à la version 1.17.4.
+ Correction du problème qui empêchait les clients de se connecter aux nœuds après un redémarrage.
+ Mise à niveau de la version Elastic Fabric Adapter (EFA) de 1.37.0 à 1.38.0.
+ L'EFA inclut désormais le plugin AWS OFI NCCL, qui se trouve dans le `/opt/amazon/ofi-nccl` répertoire au lieu du chemin d'origine`/opt/aws-ofi-nccl/`. Si vous devez mettre à jour votre variable d’environnement `LD_LIBRARY_PATH`, assurez-vous de modifier le chemin pour qu’il pointe vers le nouvel emplacement `/opt/amazon/ofi-nccl` du plug-in OFI NCCL.
+ J'ai supprimé le package Emacs de ceux-ci DLAMIs. Vous pouvez installer emacs depuis GNU emac.

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

------
#### [ Installed the latest version of neuron SDK ]
+ **aws-neuronx-dkms.noarch :** 2.19.64.0-dkms @neuron
+ **aws-neuronx-oci-hook.x86\$164** : 2.4.4.0-1 @neuron
+ **aws-neuronx-tools.x86\$164** : 2,18.3,0-1 @neuron
+ **aws-neuronx-collectives.x86\$164 : neurone 2,23.135.0\$13e70920f2-1**
+ **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3.0-1 neurone
+ **aws-neuronx-gpsimd-customop-lib.x86\$164**
+ **aws-neuronx-gpsimd-tools.x86\$164 : neurone 0,13.2.0\$194ba34927-1**
+ **aws-neuronx-k8-plugin.x86\$164** : neurone 2,23,45,0-1
+ **aws-neuronx-k8-scheduler.x86\$164** : neurone 2,23,45,0-1
+ **aws-neuronx-runtime-lib.x86\$164 : neurone 2,23.112.0\$19b5179492-1**
+ **aws-neuronx-tools.x86\$164** : neurone 2,20.204.0-1
+ **tensorflow-model-server-neuronx.x86\$164**

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 22 janvier 2025
<a name="sagemaker-hyperpod-release-ami-eks-20250122"></a>

**Mises à jour générales de l’AMI**
+ Nouvelle SageMaker HyperPod AMI pour Amazon EKS 1.31.2.

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

 AMIs Il s'agit notamment des éléments suivants :

------
#### [ Deep Learning EKS AMI 1.31 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.31.2
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987
+ **Noyau Linux :** 5.10.230
+ **Pilote OSS Nvidia :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.37.0
+ **GDRCopy: 2.4.1-1**
+ **Kit d’outils pour conteneurs Nvidia:** 1.17.3
+ **AWS NFC OFI : 1.13.0**
+ **aws-neuronx-tools: 2,18,3**
+ **aws-neuronx-runtime-lib: 2,23,112,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,23,13,0**

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 21 décembre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20241221"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

 AMIs Il s'agit notamment des éléments suivants :

------
#### [ K8s v1.28 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.28.15
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987
+ **Noyau Linux :** 5.10.228
+ **Pilote OSS NVIDIA :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.37.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.3
+ **AWS NFC OFI : 1.13.0**
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,23,112,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,23,135,0**

------
#### [ K8s v1.29 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.29.10
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987
+ **Noyau Linux :** 5.15.0
+ **Pilote OSS Nvidia :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.37.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs Nvidia:** 1.17.3
+ **AWS NFC OFI : 1.13.0**
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,23,112,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,23,135,0**

------
#### [ K8s v1.30 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.30.6
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987.0
+ **Noyau Linux :** 5.10.228
+ **Pilote OSS Nvidia :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.37.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs Nvidia:** 1.17.3
+ **AWS NFC OFI : 1.13.0**
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,23,112,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,23,135,0**

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 13 décembre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20241213"></a>

**SageMaker HyperPod DLAMI pour la mise à niveau d'Amazon EKS**
+ Mise à jour de SSM Agent vers la version `3.3.1311.0`.

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 24 novembre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20241124"></a>

**Mises à jour générales de l’AMI**
+ Publication dans la région `MEL` (Melbourne).
+ DLAMI SageMaker HyperPod de base mis à jour vers les versions suivantes :
  + Kubernetes : 2024-11-01.

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 15 novembre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20241115"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

 AMIs Il s'agit notamment des éléments suivants :

------
#### [ Deep Learning EKS AMI 1.28 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.28.15
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987
+ **Noyau Linux :** 5.10.228
+ **Pilote OSS NVIDIA :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.34.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.3
+ **AWS NFC OFI : 1.11.0**
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,22,19,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,22.33.0**

------
#### [ Deep Learning EKS AMI 1.29 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.29.10
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987
+ **Noyau Linux :** 5.10.228
+ **Pilote OSS Nvidia :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.34.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs Nvidia:** 1.17.3
+ **AWS NFC OFI : 1.11.0**
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,22,19,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,22.33.0**

------
#### [ Deep Learning EKS AMI 1.30 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.30.6
  + Version de containerd : 1.7.23
  + Version de runC : 1.1.14
  + AWS Authentificateur IAM : 0.6.26
+ **Amazon SSM Agent :** 3.3.987
+ **Noyau Linux :** 5.10.228
+ **Pilote OSS Nvidia :** 550.127.05
+ **NVIDIA CUDA :** 12.4
+ **Programme d’installation d’EFA :** 1.34.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs Nvidia:** 1.17.3
+ **AWS NFC OFI : 1.11.0**
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,22,19,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,18,20,0**
+ **aws-neuronx-collectives: 2,22.33.0**

------

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 11 novembre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20241111"></a>

**Mises à jour générales de l’AMI**
+  SageMaker HyperPod DLAMI mis à jour avec les versions 1.28.13, 1.29.8, 1.30.4 d'Amazon EKS.

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 21 octobre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20241021"></a>

**Mises à jour générales de l’AMI**
+ DLAMI SageMaker HyperPod de base mis à jour vers les versions suivantes :
  + Amazon EKS : 1.28.11, 1.29.6, 1.30.2.

## SageMaker HyperPod Publications d'AMI pour Amazon EKS : 10 septembre 2024
<a name="sagemaker-hyperpod-release-ami-eks-20240910"></a>

**SageMaker HyperPod Assistance DLAMI pour Amazon EKS**

 AMIs Il s'agit notamment des éléments suivants :

------
#### [ Deep Learning EKS AMI 1.28 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.28.11
  + Version de containerd : 1.7.20
  + Version de runC : 1.1.11
  + AWS Authentificateur IAM : 0.6.21
+ **Amazon SSM Agent :** 3.3.380
+ **Noyau Linux :** 5.10.223
+ **Pilote OSS NVIDIA :** 535.183.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.32.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs NVIDIA :** 1.16.1
+ **AWS OFI NCCL** : 1.9.1
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,21.41,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,17,17,0**
+ **aws-neuronx-collectives: 2,21.46,0**

------
#### [ Deep Learning EKS AMI 1.29 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.29.6
  + Version de containerd : 1.7.20
  + Version de runC : 1.1.11
  + AWS Authentificateur IAM : 0.6.21
+ **Amazon SSM Agent :** 3.3.380
+ **Noyau Linux :** 5.10.223
+ **Pilote OSS Nvidia :** 535.183.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.32.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs Nvidia :** 1.16.1
+ **AWS OFI NCCL** : 1.9.1
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,21.41,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,17,17,0**
+ **aws-neuronx-collectives: 2,21.46,0**

------
#### [ Deep Learning EKS AMI 1.30 ]
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.30.2
  + Version de containerd : 1.7.20
  + Version de runC : 1.1.11
  + AWS Authentificateur IAM : 0.6.21
+ **Amazon SSM Agent :** 3.3.380
+ **Noyau Linux :** 5.10.223
+ **Pilote OSS Nvidia :** 535.183.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.32.0
+ **GDRCopy:** 2,4
+ **Kit d’outils pour conteneurs Nvidia :** 1.16.1
+ **AWS OFI NCCL** : 1.9.1
+ **aws-neuronx-tools: 2,18,3,0-1**
+ **aws-neuronx-runtime-lib: 2,21.41,0**
+ **aws-neuronx-oci-hook: 2.4.4.0-1**
+ **aws-neuronx-dkms: 2,17,17,0**
+ **aws-neuronx-collectives: 2,21.46,0**

------

# Publications d’AMI publiques
<a name="sagemaker-hyperpod-release-public-ami"></a>

Les notes de mise à jour suivantes présentent les dernières mises à jour des versions de l'AMI SageMaker HyperPod publique Amazon pour l'orchestration Amazon EKS. Chaque note de mise à jour inclut une liste résumée des packages préinstallés ou préconfigurés pour le support SageMaker HyperPod DLAMIs Amazon EKS. Chaque DLAMI est basé AL2023 sur une version spécifique de Kubernetes et prend en charge cette dernière. Pour plus d'informations sur les versions des SageMaker HyperPod fonctionnalités d'Amazon, consultez[Notes de SageMaker HyperPod publication d'Amazon](sagemaker-hyperpod-release-notes.md).

Cette page est régulièrement mise à jour pour fournir des informations complètes sur la gestion du cycle de vie des AMI, notamment les vulnérabilités de sécurité, les annonces de dépréciation et les recommandations d’application de correctifs. Dans le cadre de son engagement à maintenir la sécurité et l' up-to-dateinfrastructure, l' SageMaker IA surveille en permanence l'ensemble du HyperPod public AMIs pour détecter les vulnérabilités critiques à l'aide de flux de travail d'analyse automatisés. Lorsque des problèmes de sécurité critiques sont identifiés, AMIs ils sont systématiquement déconseillés avec des conseils de migration appropriés. Les mises à jour régulières incluent l'état des mesures correctives relatives aux vulnérabilités et aux expositions courantes (CVE), les constatations de conformité et les actions recommandées pour garantir la sécurité des HyperPod environnements tout en minimisant les perturbations opérationnelles lors des transitions entre les AMI.

## SageMaker HyperPod versions publiques de l'AMI : 4 août 2025
<a name="sagemaker-hyperpod-release-public-ami-2025-08-04"></a>

Amazon prend SageMaker HyperPod désormais en charge un nouveau public AMIs pour les clusters Amazon EKS. AMIs Il s'agit notamment des éléments suivants :

------
#### [ K8s v1.32 ]

Nom de l'AMI : AMI HyperPod EKS 1.32 x86\$164 Amazon Linux 2 2025080407
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.32.3
  + Version de containerd : 1.7.23
  + Version de runC : 1.2.6
  + AWS Authentificateur IAM : 0.6.29
+ **Amazon SSM Agent :** 3.3.2299.0
+ **Noyau Linux :** 5.10.238-234.956.amzn2.x86\$164
+ **Pilote OSS NVIDIA :** 550.163.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.38.0
+ **GDRCopy:** 2.4.1
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.8
+ **AWS NCCL OFI** : 1.13.0-aws
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,27,34,0\$1ec8cd5e8b-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,17,1,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,17,0,0\$1aacc27699-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,27,23,0\$18deec4dbf-1**
  + **aws-neuronx-tools.x86\$164** : 2,25,145,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.30 ]

Nom de l'AMI : AMI HyperPod EKS 1.30 x86\$164 Amazon Linux 2 2025080407
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.30.11
  + Version de containerd : 1.7.\$1
  + Version de runC : 1.2.6
  + AWS Authentificateur IAM : 0.6.28
+ **Amazon SSM Agent :** 3.3.2299.0
+ **Noyau Linux :** 5.10.238-234.956.amzn2.x86\$164
+ **Pilote OSS NVIDIA :** 550.163.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.38.0
+ **GDRCopy:** 2.4.1
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.8
+ **AWS NCCL OFI** : 1.13.0-aws
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,27,34,0\$1ec8cd5e8b-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,17,1,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,17,0,0\$1aacc27699-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,27,23,0\$18deec4dbf-1**
  + **aws-neuronx-tools.x86\$164** : 2,25,145,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.31 ]

Nom de l'AMI : AMI HyperPod EKS 1.31 x86\$164 Amazon Linux 2 2025080407
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.31.7
  + Version de containerd : 1.7.\$1
  + Version de runC : 1.2.6
  + AWS Authentificateur IAM : 0.6.28
+ **Amazon SSM Agent :** 3.3.2299.0
+ **Noyau Linux :** 5.10.238-234.956.amzn2.x86\$164
+ **Pilote OSS NVIDIA :** 550.163.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.38.0
+ **GDRCopy:** 2.4.1
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.8
+ **AWS NCCL OFI** : 1.13.0-aws
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,27,34,0\$1ec8cd5e8b-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,17,1,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,17,0,0\$1aacc27699-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,27,23,0\$18deec4dbf-1**
  + **aws-neuronx-tools.x86\$164** : 2,25,145,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.29 ]

Nom de l'AMI : AMI HyperPod EKS 1.29 x86\$164 Amazon Linux 2 2025080407
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.29.15
  + Version de containerd : 1.7.\$1
  + Version de runC : 1.2.6
  + AWS Authentificateur IAM : 0.6.28
+ **Amazon SSM Agent :** 3.3.2299.0
+ **Noyau Linux :** 5.10.238-234.956.amzn2.x86\$164
+ **Pilote OSS NVIDIA :** 550.163.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.38.0
+ **GDRCopy:** 2.4.1
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.8
+ **AWS NCCL OFI** : 1.13.0-aws
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,27,34,0\$1ec8cd5e8b-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,17,1,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,17,0,0\$1aacc27699-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,27,23,0\$18deec4dbf-1**
  + **aws-neuronx-tools.x86\$164** : 2,25,145,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------
#### [ K8s v1.28 ]

Nom de l'AMI : AMI HyperPod EKS 1.28 x86\$164 Amazon Linux 2 2025080407
+ **Composants Amazon EKS**
  + Version de Kubernetes : 1.28.15
  + Version de containerd : 1.7.\$1
  + Version de runC : 1.2.6
  + AWS Authentificateur IAM : 0.6.28
+ **Amazon SSM Agent :** 3.3.2299.0
+ **Noyau Linux :** 5.10.238-234.956.amzn2.x86\$164
+ **Pilote OSS NVIDIA :** 550.163.01
+ **NVIDIA CUDA :** 12.2
+ **Programme d’installation d’EFA :** 1.38.0
+ **GDRCopy:** 2.4.1
+ **Kit d’outils pour conteneurs NVIDIA :** 1.17.8
+ **AWS NCCL OFI** : 1.13.0-aws
+ **Packages Neuron :**
  + **aws-neuronx-dkms.noarch** : 2.22.2.0-dkms
  + **aws-neuronx-oci-hook.x86\$164** : 2,4,4,0-1
  + **aws-neuronx-tools.x86\$164** : 2,18,3,0-1
  + **aws-neuron-dkms.noarch** : 2.3.26.0-dkms
  + **aws-neuron-k8-plugin.x86\$164** : 1.9.3.0-1
  + **aws-neuron-k8-scheduler.x86\$164** : 1.9.3.0-1
  + **aws-neuron-runtime.x86\$164** : 1,6,24,0-1
  + **aws-neuron-runtime-base.x86\$164** : 1,6,21,0-1
  + **aws-neuron-tools.x86\$164** : 2,14,0-1
  + **aws-neuronx-collectives.x86\$164 : 2,27,34,0\$1ec8cd5e8b-1**
  + **aws-neuronx-gpsimd-customop.x86\$164** : 0,2.3,0-1
  + **aws-neuronx-gpsimd-customop-lib.x86\$164** : 0,17,1,0-1
  + **aws-neuronx-gpsimd-tools.x86\$164 : 0,17,0,0\$1aacc27699-1**
  + **aws-neuronx-k8-plugin.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-k8-scheduler.x86\$164** : 2,27,7,0-1
  + **aws-neuronx-runtime-lib.x86\$164 : 2,27,23,0\$18deec4dbf-1**
  + **aws-neuronx-tools.x86\$164** : 2,25,145,0-1
  + **tensorflow-model-server-neuron.x86\$164** : 2,8,0.2.3.0,0-0
  + **tensorflow-model-server-neuronx.x86\$164** : 2.10.1.2.12,2,0-0

------