Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Démarrer avec des instances accélérées par le GPU
Les types d’instances accélérées par le GPU de dernière génération, tels que ceux présentés dans la liste suivante, offrent les capacités de performance les plus élevées pour les applications de deep learning et de calcul haute performance (HPC). Sélectionnez le lien du type d’instance pour en savoir plus sur ses capacités.
Pour obtenir la liste complète des spécifications des types d'instance pour les types d'instances accélérés, consultez la section Calcul accéléré dans la référence Amazon EC2 Instance Types.
Configuration logicielle :
Le moyen le plus simple de démarrer avec les types d'instances accélérées par GPU de dernière génération consiste à lancer une instance à partir d'une AMI AWS Deep Learning préconfigurée avec tous les logiciels requis. Pour connaître les dernières informations AWS Apprentissage profond (deep learning) AMIs relatives à une utilisation avec les types d'instances accélérées par GPU, consultez la section DLAMI compatible P6 dans le guide du développeur.AWS Apprentissage profond (deep learning) AMIs
Si vous devez créer une AMI personnalisée pour lancer des instances qui hébergent des applications de deep learning ou de HPC, nous vous recommandons d’installer les versions logicielles minimales suivantes sur votre image de base.
| Type d’instance | Pilote NVIDIA | CUDA | NVIDIA GDRCopy | Installateur EFA | NCCL | EFA K8s ¹ |
|---|---|---|---|---|---|---|
| P5 | 530 | 12.1 | 2.3 | 1.24.1 | 2,18.3 | 0,4,4 |
| P5.4xlarge | 530 | 12.1 | 2.3 | 1.43.1 ² | 2,18.3 | 0,4,4 |
| P5e | 550 | 12.1 | 2.3 | 1.24.1 | 2,18.3 | 0,5,5 |
| P5en | 550 | 12.1 | 2.3 | 1.24.1 | 2,18.3 | 0,5.6 |
| P6-B200 | 570 | 12,8 | 2,5 | 1,41,0 | 2.26.2-1 | 0,5,10 |
| P6e-00 GB2 | 570 | 12,8 | 2,5 | 1,41,0 | 2.26.2-1 | 0,5,10 |
| P6-B300 | 580 | 13,0 | 2,5 | 1,44,0 | 2,28,3 | 0,5,10 |
¹ La colonne EFA K8s contient la version minimale recommandée pour aws-efa-k8s-device-plugin.
² Un problème de compatibilité affecte les P5.4xlarge instances lorsque GPU-to-GPU la communication utilise Elastic Fabric Adapter (EFA) et la bibliothèque de communications collectives NVIDIA (NCCL). Pour atténuer le problème, définissez la variable d’environnement FI_HMEM_DISABLE_P2P sur 1 et assurez-vous d’installer la version 1.43.1 ou ultérieure d’EFA.
Note
Si vous utilisez la version 1.41.0 du programme d’installation d’EFA, le aws-ofi-nccl plugin est fourni avec. Pour les versions antérieures du programme d’installation d’EFA, utilisez la version 1.7.2-aws ou une version ultérieure de aws-ofi-nccl plugin.
Nous vous recommandons également de configurer l’instance de façon à ne pas utiliser d’états C plus profonds. Pour plus d’informations, consultez la section Performances élevées et faible latence en limitant les « états-C » plus profonds dans le Guide de l’utilisateur d’Amazon Linux 2. Les derniers GPU AWS Deep Learning Base AMIs sont préconfigurés pour ne pas utiliser d'états C plus profonds.
Pour la mise en réseau et la configuration de l’adaptateur Elastic Fabric Adapter (EFA), consultez Maximisez la bande passante réseau sur EC2 les instances Amazon avec plusieurs cartes réseau.