

# SUS05-BP04 Optimiser votre utilisation des accélérateurs de calcul matériels
<a name="sus_sus_hardware_a5"></a>

Optimisez votre utilisation des instances de calcul accéléré pour réduire les exigences d’infrastructure physique de votre charge de travail.

 **Anti-modèles courants :** 
+  Vous ne surveillez pas l’utilisation du GPU. 
+  Vous utilisez une instance à usage général pour la charge de travail alors qu’une instance spécialement conçue peut fournir des performances supérieures, des coûts plus faibles et de meilleures performances par watt. 
+  Vous utilisez des accélérateurs de calcul matériels pour les tâches où ils sont plus efficaces en utilisant des alternatives basées sur l’UC. 

 **Avantages liés au respect de cette bonne pratique :** en optimisant l’utilisation des accélérateurs matériels, vous pouvez réduire les exigences de votre charge de travail en matière d’infrastructure physique. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Si vous avez besoin d’une capacité de traitement élevée, vous pouvez bénéficier de l’utilisation d’instances de calcul accéléré, qui vous donnent accès à des accélérateurs de calcul matériels tels que des unités de traitement graphique (GPU) et des matrices de portes programmables sur site (FPGA). Ces accélérateurs matériels exécutent certaines fonctions comme le traitement graphique ou la correspondance de modèles de données plus efficacement que les alternatives basées sur l’UC. De nombreuses charges de travail accélérées, telles que le rendu, le transcodage et le machine learning, sont très variables en matière d’utilisation des ressources. Exécutez ce matériel uniquement pendant le temps nécessaire et mettez-le hors service grâce à l’automatisation lorsque vous n’en avez plus besoin afin de limiter les ressources consommées. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Explorer les accélérateurs de calcul :** identifiez les [instances de calcul accéléré](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html) qui peuvent répondre à vos besoins. 
+  **Utiliser du matériel conçu spécialement :** pour les charges de travail de machine learning, tirez parti d’un matériel conçu spécialement pour votre charge de travail, tel qu’[AWS Trainum](https://aws.amazon.com/machine-learning/trainium/), [AWS Inferentia](https://aws.amazon.com/machine-learning/inferentia/) et [Amazon EC2 DL1](https://aws.amazon.com/ec2/instance-types/dl1/). AWS Les instances Inferentia telles que les instances Inf2 offrent des performances par watt jusqu’à [50 % supérieures à celles des instances Amazon EC2 comparables](https://aws.amazon.com/machine-learning/inferentia/). 
+  **Surveiller les métriques d’utilisation :** collectez des métriques d’utilisation pour vos instances de calcul accéléré. Par exemple, vous pouvez utiliser l’agent CloudWatch pour collecter des métriques telles que `utilization_gpu` et `utilization_memory` pour vos GPU, comme indiqué dans [Collecter les métriques des GPU NVIDIA avec Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-NVIDIA-GPU.html). 
+  **Redimensionner :** optimisez le code, le fonctionnement du réseau et les paramètres des accélérateurs matériels pour veiller à ce que le matériel sous-jacent soit pleinement utilisé. 
  +  [Optimisation des paramètres GPU](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/optimize_gpu.html) 
  +  [Surveillance et optimisation des GPU dans l’AMI Deep Learning](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-gpu.html) 
  +  [Optimisation des E/S pour le réglage des performances de GPU pour l’entraînement du deep learning dans l'IA Amazon SageMaker](https://aws.amazon.com/blogs/machine-learning/optimizing-i-o-for-gpu-performance-tuning-of-deep-learning-training-in-amazon-sagemaker/) 
+  **Maintenir à jour :** utilisez les derniers pilotes GPU et bibliothèques à hautes performances. 
+  **Libérer les instances non requises :** utilisez l’automatisation pour libérer les instances GPU lorsqu’elles ne sont pas utilisées. 

## Ressources
<a name="resources"></a>

 **Documents connexes:** 
+  [Calcul accéléré](https://aws.amazon.com/ec2/instance-types/#Accelerated_Computing) 
+ [ Let’s Architect\$1 Architecture avec des puces personnalisées et des accélérateurs ](https://aws.amazon.com/blogs/architecture/lets-architect-custom-chips-and-accelerators/)
+ [ Comment choisir le type d’instance EC2 approprié pour ma charge de travail? ](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/)
+  [Instances Amazon EC2 VT](https://aws.amazon.com/ec2/instance-types/vt1/) 
+ [Choisissez le meilleur accélérateur d’IA et la meilleure compilation de modèles pour l’inférence de vision par ordinateur avec l'IA Amazon SageMaker](https://aws.amazon.com/blogs/machine-learning/choose-the-best-ai-accelerator-and-model-compilation-for-computer-vision-inference-with-amazon-sagemaker/)

 **Vidéos connexes :** 
+ [AWS re:Invent 2021 - How to select Amazon EC2 GPU instances for deep learning ](https://www.youtube.com/watch?v=4bVrIbgGWEA)
+  [AWS Online Tech Talks - Deploying Cost-Effective Deep Learning Inference](https://www.youtube.com/watch?v=WiCougIDRsw) 
+ [AWS re:Invent 2023 - Cutting-edge AI with AWS and NVIDIA](https://www.youtube.com/watch?v=ud4-z_sb_ps)
+ [AWS re:Invent 2022 - [NEW LAUNCH\$1] Introducing AWS Inferentia2-based Amazon EC2 Inf2 instances](https://www.youtube.com/watch?v=jpqiG02Y2H4)
+ [AWS re:Invent 2022 - Accelerate deep learning and innovate faster with AWS Trainium](https://www.youtube.com/watch?v=YRqvfNwqUIA)
+ [AWS re:Invent 2022 - Deep learning on AWS with NVIDIA: From training to deployment](https://www.youtube.com/watch?v=l8AFfaCkp0E)