

# PERF02-BP06 Utiliser des accélérateurs de calcul matériels optimisés
<a name="perf_compute_hardware_compute_accelerators"></a>

 Utilisez des accélérateurs matériels pour exécuter certaines fonctions de manière plus efficace que les alternatives basées sur l'UC. 

 **Anti-modèles courants :** 
+  En ce qui concerne votre charge de travail, vous n'avez pas comparé une instance à usage général à une instance dédiée capable de fournir de meilleures performances à faible coût. 
+  Vous utilisez des accélérateurs de calcul matériels pour les tâches qui peuvent être plus efficaces en utilisant des alternatives basées sur l'UC. 
+  Vous ne surveillez pas l'utilisation du GPU. 

**Avantages liés au respect de cette bonne pratique :** En utilisant des accélérateurs matériels, tels que des unités de traitement graphique (GPU) et des circuits logiques programmables (FPGA), vous pouvez exécuter certaines fonctions de traitement de manière plus efficace. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les instances de calcul accéléré donnent accès à des accélérateurs de calcul matériels tels que les GPU et les FPGA. Ces accélérateurs matériels exécutent certaines fonctions comme le traitement graphique ou la correspondance de modèles de données plus efficacement que les alternatives basées sur l'UC. De nombreuses charges de travail accélérées, telles que le rendu, le transcodage et le machine learning, sont très variables en termes d'utilisation des ressources. Exécutez ce matériel uniquement pendant le temps nécessaire et mettez-le hors service grâce à l'automatisation lorsque vous n'en avez plus besoin afin d'améliorer l'efficacité globale des performances. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Identifiez quelles [instances informatiques accélérées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html) peuvent répondre à vos besoins. 
+  Pour les charges de travail de machine learning, tirez parti d'un matériel conçu spécialement pour votre charge de travail, comme [AWS Trainium](https://aws.amazon.com/machine-learning/trainium/), [AWS Inferentia](https://aws.amazon.com/machine-learning/inferentia/)et [Amazon EC2 DL1](https://aws.amazon.com/ec2/instance-types/dl1/). » Les instances Inferentia AWS, telles que les instances Inf2, [offrent des performances par watt jusqu'à 50 % supérieures à celles des instances comparables Amazon EC2](https://aws.amazon.com/machine-learning/inferentia/). » 
+  Collectez des métriques d'utilisation pour vos instances de calcul accéléré. Par exemple, vous pouvez utiliser un agent CloudWatch pour collecter des métriques comme `utilization_gpu` et `utilization_memory` pour vos GPU, comme indiqué dans [Collecter les métriques des GPU NVIDIA avec Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-NVIDIA-GPU.html). 
+  Optimisez le code, le fonctionnement du réseau et les paramètres des accélérateurs matériels pour veiller à ce que le matériel sous-jacent soit pleinement utilisé. 
  +  [Optimisation des paramètres GPU](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/optimize_gpu.html) 
  +  [Surveillance et optimisation des GPU dans l'AMI Deep Learning](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-gpu.html) 
  +  [Optimisation des E/S pour le réglage des performances de GPU pour l'entraînement du deep learning dans Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/optimizing-i-o-for-gpu-performance-tuning-of-deep-learning-training-in-amazon-sagemaker/) 
+  Utilisez les dernières bibliothèques performantes et les pilotes GPU. 
+  Utilisez l'automatisation pour libérer les instances GPU lorsqu'elles ne sont pas utilisées. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Instances GPU (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#gpu-instances) 
+  [Instances avec Trainium AWS (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-trainium-instances) 
+  [Instances avec Inferentia AWS (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-inferentia-instances) 
+  [Passons à l'architecture \$1 Architecture avec des puces personnalisées et des accélérateurs](https://aws.amazon.com/blogs/architecture/lets-architect-custom-chips-and-accelerators/) 
+  [Calcul accéléré](https://aws.amazon.com/ec2/instance-types/#Accelerated_Computing) 
+  [Instances VT1 Amazon EC2](https://aws.amazon.com/ec2/instance-types/vt1/) 
+  [Comment choisir le type d'instance Amazon EC2 approprié pour ma charge de travail ?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
+  [Choisissez le meilleur accélérateur d'IA et la meilleure compilation de modèles pour l'inférence de vision par ordinateur avec Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/choose-the-best-ai-accelerator-and-model-compilation-for-computer-vision-inference-with-amazon-sagemaker/) 

 **Vidéos connexes :** 
+  [How to select Amazon EC2 GPU instances for deep learning](https://www.youtube.com/watch?v=4bVrIbgGWEA&ab_channel=AWSEvents) 
+  [Deploying Cost-Effective Deep Learning Inference](https://www.youtube.com/watch?v=WiCougIDRsw&ab_channel=AWSOnlineTechTalks) 