

# Efficacité en matière de performance
<a name="a-performance-efficiency"></a>

Le pilier Efficacité des performances comprend la capacité à utiliser efficacement les ressources de calcul pour répondre aux exigences du système et à maintenir cette efficacité à mesure que la demande change et les technologies évoluent. Vous trouverez des recommandations sur l'implémentation dans le [Livre blanc du pilier Efficacité des performances](https://docs.aws.amazon.com/wellarchitected/latest/performance-efficiency-pillar/welcome.html?ref=wellarchitected-wp).

**Topics**
+ [Choix d'architecture](a-selection.md)
+ [Informatique et matériel](a-compute-hardware.md)
+ [Gestion des données](a-data-management.md)
+ [Mise en réseau et diffusion de contenu](a-networking-delivery.md)
+ [Processus et culture](a-process-culture.md)

# Choix d'architecture
<a name="a-selection"></a>

**Topics**
+ [PERF 1. Comment sélectionnez-vous les ressources et l'architecture cloud adaptées à votre charge de travail ?](perf-01.md)

# PERF 1. Comment sélectionnez-vous les ressources et l'architecture cloud adaptées à votre charge de travail ?
<a name="perf-01"></a>

 La solution optimale pour une charge de travail peut varier, et les solutions combinent souvent plusieurs approches. Les charges de travail bien architecturées utilisent plusieurs solutions et permettent d'exploiter différentes fonctionnalités pour améliorer les performances. 

**Topics**
+ [PERF01-BP01 Découvrir et se familiariser avec les services et fonctionnalités cloud disponibles](perf_architecture_understand_cloud_services_and_features.md)
+ [PERF01-BP02 Utiliser les recommandations de votre fournisseur de cloud ou d'un partenaire approprié pour en savoir plus sur les modèles d'architecture et les bonnes pratiques](perf_architecture_guidance_architecture_patterns_best_practices.md)
+ [PERF01-BP03 Tenir compte des coûts dans vos décisions architecturales](perf_architecture_factor_cost_into_architectural_decisions.md)
+ [PERF01-BP04 Évaluer l'impact des compromis sur les clients et l'efficacité de l'architecture](perf_architecture_evaluate_trade_offs.md)
+ [PERF01-BP05 Utiliser des stratégies et des architectures de référence](perf_architecture_use_policies_and_reference_architectures.md)
+ [PERF01-BP06 Utiliser le benchmarking pour éclairer vos décisions architecturales](perf_architecture_use_benchmarking.md)
+ [PERF01-BP07 Utiliser une approche orientée données pour les choix architecturaux](perf_architecture_use_data_driven_approach.md)

# PERF01-BP01 Découvrir et se familiariser avec les services et fonctionnalités cloud disponibles
<a name="perf_architecture_understand_cloud_services_and_features"></a>

 Découvrez en continu les services et configurations disponibles qui vous aident à prendre de meilleures décisions architecturales et à améliorer l'efficacité des performances de votre architecture de charge de travail. 

 **Anti-modèles courants :** 
+  Vous utilisez le cloud comme centre de données hébergé. 
+  Vous ne modernisez pas votre application après la migration vers le cloud. 
+  Vous n'utilisez qu'un seul type de stockage pour tout ce que vous devez conserver. 
+  Vous utilisez les types d'instances qui correspondent le plus à vos standards actuels. Elles peuvent être de plus grande taille au besoin. 
+  Vous déployez et gérez les technologies disponibles en tant que services gérés. 

 **Avantages liés au respect de cette bonne pratique :** En envisageant de nouveaux services et de nouvelles configurations, vous pourriez être en mesure d'améliorer considérablement vos performances, de réduire les coûts et d'optimiser les efforts requis pour maintenir votre charge de travail. Elle peut également vous aider à accélérer le délai de valorisation des produits compatibles avec le cloud. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 AWS publie en permanence de nouveaux services et fonctionnalités susceptibles d'améliorer les performances et de réduire le coût des charges de travail dans le cloud. Il est essentiel de se tenir informé de ces nouveaux services et fonctionnalités pour maintenir l'efficacité des performances dans le cloud. La modernisation de votre architecture de charge de travail vous permet également d'accélérer la productivité, de stimuler l'innovation et de générer de nouvelles opportunités de croissance. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Faites l'inventaire de vos charges de travail logicielles et de l'architecture des services connexes. Déterminez la catégorie de produits sur laquelle vous souhaitez en savoir plus. 
+  Explorez les offres AWS pour identifier et découvrir les services et les options de configuration pertinents qui peuvent vous aider à améliorer les performances et à réduire les coûts et la complexité opérationnelle. 
  +  [Nouveautés avec AWS](https://aws.amazon.com/new/) 
  +  [Blog AWS](https://aws.amazon.com/blogs/) 
  +  [AWS Skill Builder](https://skillbuilder.aws/) 
  +  [Événements et webinaires AWS](https://aws.amazon.com/events/) 
  +  [AWS Training et certifications](https://www.aws.training/) 
  +  [Chaîne YouTube AWS](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 
  +  [Ateliers AWS](https://workshops.aws/) 
  +  [Communautés AWS](https://aws.amazon.com/events/asean/community-and-events/) 
+  Utilisez des environnements de test (hors production) pour découvrir et tester de nouveaux services sans frais supplémentaires. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Centre d'architecture AWS](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Bibliothèque de solutions AWS](https://aws.amazon.com/solutions/) 
+  [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [Créer des applications modernes sur AWS](https://aws.amazon.com/modern-apps/) 

 **Vidéos connexes :** 
+  [Voici mon architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Exemples connexes :** 
+  [Exemples AWS](https://github.com/aws-samples) 
+  [Exemples de kits SDK AWS](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP02 Utiliser les recommandations de votre fournisseur de cloud ou d'un partenaire approprié pour en savoir plus sur les modèles d'architecture et les bonnes pratiques
<a name="perf_architecture_guidance_architecture_patterns_best_practices"></a>

 Utilisez les ressources cloud de l'entreprise, telles que la documentation, les architectes de solutions, les services professionnels ou les partenaires appropriés pour éclairer vos décisions architecturales. Ces ressources vous aident à vérifier et à améliorer votre architecture pour obtenir des performances optimales. 

 **Anti-modèles courants :** 
+  Vous utilisez AWS en tant que fournisseur de cloud ordinaire. 
+  Vous utilisez les services AWS de manière non conforme à leur utilisation prévue. 
+  Vous suivez toutes les recommandations sans tenir compte du contexte de votre entreprise. 

 **Avantages liés au respect de cette bonne pratique :** En suivant les recommandations d'un fournisseur de cloud ou d'un partenaire approprié, vous pouvez faire les bons choix architecturaux pour votre charge de travail et vous avez confiance dans vos décisions. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 AWS propose un large éventail de recommandations, documentations et ressources qui peuvent vous aider à générer et à gérer des charges de travail cloud efficaces. La documentation AWS fournit des exemples de code, des tutoriels et des explications détaillées sur les services. Outre la documentation, AWS propose des programmes de formation et de certification, des architectes de solutions et des services professionnels qui peuvent aider les clients à explorer différents aspects des services cloud et à mettre en œuvre une architecture cloud efficace sur AWS. 

 Tirez parti de ces ressources pour obtenir des informations précieuses et des bonnes pratiques, gagner du temps et obtenir de meilleurs résultats dans le AWS Cloud. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Consultez la documentation et les recommandations AWS et suivez les bonnes pratiques. Ces ressources peuvent vous aider à choisir et à configurer efficacement les services, ainsi qu’à améliorer les performances. 
  +  [documentation AWS](https://docs.aws.amazon.com/) (comme les guides d'utilisation et les livres blancs) 
  +  [Blog AWS](https://aws.amazon.com/blogs/) 
  +  [AWS Training et certifications](https://www.aws.training/) 
  +  [Chaîne YouTube AWS](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 
+  Participez à des événements partenaires AWS (tels que les sommets mondiaux AWS, les groupes d'utilisateurs, re:Invent AWS et les ateliers) pour découvrir les bonnes pratiques d'utilisation des services AWS auprès des experts AWS. 
  +  [Événements et webinaires AWS](https://aws.amazon.com/events/) 
  +  [Ateliers AWS](https://workshops.aws/) 
  +  [Communautés AWS](https://aws.amazon.com/events/asean/community-and-events/) 
+  Contactez AWS pour obtenir de l'aide lorsque vous avez besoin de conseils ou d'informations supplémentaires sur le produit. Les architectes de solutions AWS et [les services professionnels AWS](https://aws.amazon.com/professional-services/) fournissent des conseils pour la mise en œuvre de solutions. [les partenaires AWS](https://aws.amazon.com/partners/) apportent une expertise AWS pour vous aider à gagner en agilité et favoriser l'innovation au sein de votre entreprise. 
+  Utilisez [Support](https://aws.amazon.com/contact-us/) si vous avez besoin d'une assistance technique pour utiliser un service de manière efficace. [Nos plans de support](https://aws.amazon.com/premiumsupport/plans/) sont conçus pour vous fournir la bonne combinaison d'outils et l'accès à une expertise afin que vous puissiez réussir avec AWS tout en optimisant les performances, en gérant les risques et en maîtrisant les coûts. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Centre d'architecture AWS](https://aws.amazon.com/architecture/) 
+  [Bibliothèque de solutions AWS](https://aws.amazon.com/solutions/) 
+  [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [Support aux entreprises AWS](https://aws.amazon.com/premiumsupport/plans/enterprise/) 

 **Vidéos connexes :** 
+  [Voici mon architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Exemples connexes :** 
+  [Exemples AWS](https://github.com/aws-samples) 
+  [Exemples de kits SDK AWS](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP03 Tenir compte des coûts dans vos décisions architecturales
<a name="perf_architecture_factor_cost_into_architectural_decisions"></a>

 Tenez compte des coûts dans vos décisions architecturales afin d'améliorer l'utilisation des ressources et l'efficacité des performances de votre charge de travail cloud. Lorsque vous êtes conscient des implications financières de votre charge de travail cloud, vous êtes plus susceptible de tirer parti de ressources efficaces et de réduire les pratiques inutiles. 

 **Anti-modèles courants :** 
+  Vous n'utilisez qu'une seule famille d'instances. 
+  Vous n'évaluez pas les solutions sous licence par rapport aux solutions open source. 
+  Vous ne définissez pas de stratégies de cycle de vie pour le stockage. 
+  Vous ne passez pas en revue les nouveaux services et les nouvelles fonctionnalités du AWS Cloud. 
+  Vous utilisez uniquement le stockage par blocs. 

 **Avantages liés au respect de cette bonne pratique :** En tenant compte des coûts dans vos prises de décision, vous pouvez utiliser des ressources plus efficaces et explorer d'autres investissements. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 L'optimisation des charges de travail en termes de coûts peut améliorer l'utilisation des ressources et éviter le gaspillage dans une charge de travail cloud. La prise en compte des coûts dans les décisions architecturales implique généralement de dimensionner correctement les composants de la charge de travail et de renforcer l'élasticité, ce qui se traduit par une amélioration de l'efficacité des performances de la charge de travail cloud. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Fixez des objectifs de coûts tels que des limites budgétaires pour votre charge de travail cloud. 
+  Identifiez les composants clés (tels que les instances et le stockage) qui augmentent le coût de votre charge de travail. Vous pouvez utiliser [Calculateur de tarification AWS](https://calculator.aws/#/) et [AWS Cost Explorer](https://aws.amazon.com/aws-cost-management/aws-cost-explorer/) pour identifier les principaux facteurs de coûts dans votre charge de travail. 
+  Utilisez [les Bonnes pratiques d'optimisation des coûts Well-Architected](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/welcome.html) afin d'optimiser ces composants clés en termes de coûts. 
+  Surveillez et analysez en permanence les coûts afin d'identifier les opportunités d'optimisation des coûts dans votre charge de travail. 
  +  Utilisez [Budgets AWS](https://aws.amazon.com/aws-cost-management/aws-budgets/) pour recevoir des alertes en cas de coûts inadmissibles. 
  +  Utilisez [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) ou [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) pour obtenir des recommandations en matière d'optimisation des coûts. 
  +  Utilisez [Cost Anomaly Detection AWS](https://aws.amazon.com/aws-cost-management/aws-cost-anomaly-detection/) pour détecter automatiquement les anomalies de coûts et analyser les causes racines. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Présentation détaillée du tableau de bord Cost Intelligence Dashboard (langue française non garantie)](https://aws.amazon.com/blogs/aws-cloud-financial-management/a-detailed-overview-of-the-cost-intelligence-dashboard/) 
+  [Centre d'architecture AWS](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Bibliothèque de solutions AWS](https://aws.amazon.com/solutions/) 
+  [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Vidéos connexes :** 
+  [Voici mon architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 
+  [Optimisez les performances et les coûts de votre calcul AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Exemples AWS](https://github.com/aws-samples) 
+  [Exemples de kits SDK AWS](https://github.com/awsdocs/aws-doc-sdk-examples) 
+  [Dimensionnement avec Compute Optimizer et activation de l'utilisation de la mémoire](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF01-BP04 Évaluer l'impact des compromis sur les clients et l'efficacité de l'architecture
<a name="perf_architecture_evaluate_trade_offs"></a>

 Lors de l'évaluation des améliorations liées à la performance, identifiez les choix qui affectent vos clients et l'efficacité de la charge de travail. Par exemple, si l'utilisation d'un magasin de données clé-valeur augmente les performances du système, il est important d'évaluer l'impact de la nature constante de cette modification à terme sur les clients. 

 **Anti-modèles courants :** 
+  Vous supposez que tous les gains de performances doivent être mis en œuvre, même s'il existe des compromis pour ce qui est de l'implémentation. 
+  Vous n'évaluez les modifications apportées aux charges de travail que lorsqu'un problème de performances a atteint un point critique. 

 **Avantages liés au respect de cette bonne pratique :** Lorsque vous évaluez les améliorations potentielles liées aux performances, vous devez décider si les compromis concernant les modifications sont compatibles avec les exigences de charge de travail. Dans certains cas, vous devrez peut-être mettre en place des contrôles supplémentaires pour compenser les compromis. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Identifiez les domaines critiques de votre architecture en termes de performances et d'impact sur les clients. Déterminez la façon dont vous pouvez apporter des améliorations ainsi que les compromis que ces améliorations entraînent et la façon dont ils affectent le système et l'expérience de l'utilisateur. Par exemple, la mise en œuvre de la mise en cache des données permet d'améliorer de manière significative les performances, mais nécessite une stratégie précise concernant la manière et le moment où mettre à jour ou invalider les données mises en cache pour empêcher un comportement incorrect du système. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Comprenez vos exigences en matière de charge de travail et vos SLA. 
+  Définissez clairement les facteurs d'évaluation. Les facteurs peuvent être liés au coût, à la fiabilité, à la sécurité et aux performances de votre charge de travail. 
+  Sélectionnez l'architecture et les services qui répondent à vos besoins. 
+  Menez des expériences et des démonstrations de faisabilité (POC) afin d'évaluer les facteurs de compromis et l'impact sur les clients et l'efficacité de l'architecture. En général, les charges de travail hautement disponibles, performantes et sécurisées consomment davantage de ressources cloud tout en offrant une meilleure expérience client. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Bibliothèque Amazon Builders' Library](https://aws.amazon.com/builders-library) 
+  [KPI Quick](https://docs.aws.amazon.com/quicksight/latest/user/kpi.html) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Documentation X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+ [ Comprenez les modèles de résilience et les compromis pour concevoir une architecture efficace dans le cloud ](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)

 **Vidéos connexes :** 
+  [Build a Monitoring Plan](https://www.youtube.com/watch?v=OMmiGETJpfU&ref=wellarchitected) 
+  [Optimize applications through Amazon CloudWatch RUM](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo of Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Exemples connexes :** 
+  [Mesurer le temps de chargement des pages avec Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Client web Amazon CloudWatch RUM](https://github.com/aws-observability/aws-rum-web) 

# PERF01-BP05 Utiliser des stratégies et des architectures de référence
<a name="perf_architecture_use_policies_and_reference_architectures"></a>

 Utilisez les stratégies internes et les architectures de référence existantes lors de la sélection des services et des configurations en vue d'augmenter votre efficacité lorsque vous concevez et mettez en œuvre votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous autorisez un large éventail de technologies qui peuvent avoir un impact sur les frais généraux de gestion de votre entreprise. 

 **Avantages liés au respect de cette bonne pratique :** L'établissement d'une stratégie pour les choix d'architecture, de technologie et de fournisseur permet de prendre des décisions rapidement. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Le fait de disposer de politiques internes en matière de sélection des ressources et de l'architecture fournit des normes et des directives à suivre lors des choix architecturaux. Ces directives simplifient le processus de prise de décision lors du choix du bon service cloud et peuvent contribuer à améliorer l'efficacité des performances. Déployez votre charge de travail à l'aide de stratégies ou d'architectures de référence. Intégrez les services à votre déploiement dans le cloud. Utilisez ensuite vos tests de performance pour vérifier que vous pouvez continuer à répondre à vos exigences de performance. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Comprenez clairement les exigences de votre charge de travail cloud. 
+  Passez en revue les stratégies internes et externes pour identifier les plus pertinentes. 
+  Utilisez les architectures de référence appropriées fournies par AWS ou les bonnes pratiques de votre secteur. 
+  Créez un continuum composé de stratégies, de normes, d'architectures de référence et de directives normatives pour les situations courantes. Vos équipes pourront ainsi agir plus rapidement. Adaptez les ressources à votre secteur d'activité, le cas échéant. 
+  Validez ces stratégies et architectures de référence pour votre charge de travail dans les environnements de test. 
+  Restez informé des normes du secteur et des mises à jour AWS pour garantir que vos stratégies et architectures de référence contribuent à optimiser votre charge de travail cloud. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Centre d'architecture AWS](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Bibliothèque de solutions AWS](https://aws.amazon.com/solutions/) 
+  [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Vidéos connexes :** 
+  [Voici mon architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Exemples connexes :** 
+  [Exemples AWS](https://github.com/aws-samples) 
+  [Exemples de kits SDK AWS](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP06 Utiliser le benchmarking pour éclairer vos décisions architecturales
<a name="perf_architecture_use_benchmarking"></a>

 Définissez des points de référence pour les performances d'une charge de travail existante afin de comprendre ses performances sur le cloud et prendre des décisions architecturales sur la base de ces données. 

 **Anti-modèles courants :** 
+  Vous comptez sur des points de référence courants qui ne reflètent pas les caractéristiques de votre charge de travail. 
+  Vous utilisez les commentaires et la perception des clients comme seule référence. 

 **Avantages liés au respect de cette bonne pratique :** La définition des points de référence de votre implémentation actuelle vous permet de mesurer l'amélioration des performances. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Utilisez la définition de points de référence avec des tests synthétiques pour évaluer les performances des composants de votre charge de travail. La définition de points de référence est généralement plus rapide à configurer que les tests de charge. Elle est utilisée pour évaluer la technologie pour un composant en particulier. La définition de points de référence est souvent utilisée au début d'un nouveau projet, lorsque vous n'avez pas de solution complète pour le test de charge. 

 Vous pouvez créer vos propres tests de définition de points de référence, ou utiliser un test conforme aux normes du secteur, comme [le TPC-DS](http://www.tpc.org/tpcds/), pour évaluer vos charges de travail. Les points de référence du secteur sont utiles lorsque vous comparez différents environnements. Les points de référence personnalisés sont utiles pour cibler certains types d'opérations que vous souhaitez effectuer dans votre architecture. 

 Avec le benchmarking, il est important de préparer votre environnement de test pour obtenir des résultats valides. Exécutez plusieurs fois le même point de référence pour vous assurer d'avoir capturé toute variabilité au fil du temps. 

 Étant donné que les points de référence sont généralement plus rapides à exécuter que les tests de charge, ils peuvent être utilisés plus tôt dans le pipeline de déploiement et fournir un retour rapide sur les écarts de performances. Lorsque vous évaluez un changement important dans un composant ou un service, un point de référence peut être un moyen rapide pour voir si la modification a un intérêt. L'utilisation de la définition de points de référence avec un test de charge est essentielle, car un test de charge vous indique comment votre charge de travail se comporte dans un environnement de production. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Définissez les métriques (telles que l'utilisation de l'UC, la latence ou le débit) pour évaluer les performances de votre charge de travail. 
+  Identifiez et configurez un outil de benchmarking adapté à votre charge de travail. Vous pouvez utiliser des services AWS (tels que [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html)) ou un outil tiers compatible avec votre charge de travail. 
+  Effectuez vos tests comparatifs et surveillez les métriques pendant le test. 
+  Analysez et documentez les résultats de benchmarking afin d'identifier les éventuels goulots d'étranglement et problèmes. 
+  Utilisez les résultats des tests pour prendre des décisions architecturales et ajuster votre charge de travail. Cet ajustement peut impliquer la modification des services ou l'adoption de nouvelles fonctionnalités. 
+  Testez à nouveau votre charge de travail après l'ajustement. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Centre d'architecture AWS](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Bibliothèque de solutions AWS](https://aws.amazon.com/solutions/) 
+  [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon CloudWatch Synthetics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) 

 **Vidéos connexes :** 
+  [Voici mon architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 
+  [Optimisez les applications grâce à Amazon CloudWatch RUM](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo of Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Exemples connexes :** 
+  [Exemples AWS](https://github.com/aws-samples) 
+  [Exemples de kits SDK AWS](https://github.com/awsdocs/aws-doc-sdk-examples) 
+  [Tests de charge distribuée](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 
+  [Mesurer le temps de chargement des pages avec Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Client web Amazon CloudWatch RUM](https://github.com/aws-observability/aws-rum-web) 

# PERF01-BP07 Utiliser une approche orientée données pour les choix architecturaux
<a name="perf_architecture_use_data_driven_approach"></a>

 Définissez une approche orientée données claire pour les choix architecturaux afin de vérifier que les services et configurations cloud appropriés sont utilisés pour répondre aux besoins spécifiques de votre entreprise. 

 **Anti-modèles courants :** 
+  Vous supposez que votre architecture actuelle est statique et ne devrait pas être mise à jour au fil du temps. 
+  Vos choix architecturaux sont basés sur des suppositions et des hypothèses. 
+  Vous introduisez des modifications d'architecture au fil du temps sans justification. 

 **Avantages liés au respect de cette bonne pratique :** En adoptant une approche bien définie pour les choix architecturaux, vous utilisez les données pour influencer la conception de votre charge de travail et prendre des décisions éclairées au fil du temps. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Mobilisez l'expérience et l'expertise des ressources cloud internes ou faites appel à des ressources externes, comme des cas d'utilisation publiés ou des livres blancs pour définir un processus de sélection des ressources et services dans votre architecture. Vous devriez disposer d'un processus bien défini qui encourage l'expérimentation et le benchmarking avec les services qui pourraient être utilisés dans votre charge de travail. 

 Les backlogs relatifs aux charges de travail critiques doivent non seulement comprendre des témoignages d'utilisateurs proposant des fonctionnalités pertinentes pour les entreprises et les utilisateurs, mais également des récits techniques qui constituent une piste architecturale pour la charge de travail. Cette piste s'inspire des nouvelles avancées technologiques et des nouveaux services et les adopte sur la base de données et de justifications appropriées. Cela permet de vérifier que l'architecture reste pérenne et ne stagne pas. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Collaborez avec les principales parties prenantes pour définir les exigences en matière de charge de travail, y compris les considérations relatives aux performances, à la disponibilité et aux coûts. Tenez compte de facteurs tels que le nombre d'utilisateurs et le modèle d'utilisation de votre charge de travail. 
+  Créez une piste architecturale ou un backlog technologique qui est axé en priorité sur le backlog fonctionnel. 
+  Évaluez les différents services cloud (pour en savoir plus, consultez [PERF01-BP01 Découvrir et se familiariser avec les services et fonctionnalités cloud disponibles](perf_architecture_understand_cloud_services_and_features.md)). 
+  Explorez les différents modèles architecturaux, tels que les microservices ou le modèle sans serveur, qui répondent à vos exigences en termes de performances (pour en savoir plus, consultez [PERF01-BP02 Utiliser les recommandations de votre fournisseur de cloud ou d'un partenaire approprié pour en savoir plus sur les modèles d'architecture et les bonnes pratiques](perf_architecture_guidance_architecture_patterns_best_practices.md)). 
+  Consultez d'autres équipes, des diagrammes d'architecture et des ressources, tels que les architectes de solutions AWS, [Centre d'architecture AWS](https://aws.amazon.com/architecture/)et [AWS Partner Network](https://aws.amazon.com/partners/)pour vous aider à choisir l'architecture adaptée à votre charge de travail. 
+  Définissez des métriques de performance telles que le débit et le temps de réponse qui peuvent vous aider à évaluer les performances de votre charge de travail. 
+  Testez et utilisez des métriques définies pour valider les performances de l'architecture sélectionnée. 
+  Surveillez en continu les performances et effectuez les ajustements nécessaires pour maintenir un niveau optimal de performance pour votre architecture. 
+  Documentez l'architecture que vous avez sélectionnée et les décisions que vous avez prises comme référence pour les futures mises à jour et les futurs apprentissages. 
+  Vérifiez en permanence l'approche de sélection de l'architecture et mettez-la à jour en fonction des apprentissages, des nouvelles technologies et des métriques indiquant un changement nécessaire ou un problème dans l'approche actuelle. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Bibliothèque de solutions AWS](https://aws.amazon.com/solutions/) 
+  [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Vidéos connexes :** 
+  [Voici mon architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Exemples connexes :** 
+  [Exemples AWS](https://github.com/aws-samples) 
+  [Exemples de kits SDK AWS](https://github.com/awsdocs/aws-doc-sdk-examples) 

# Informatique et matériel
<a name="a-compute-hardware"></a>

# PERF 2. Comment sélectionnez-vous et utilisez-vous les ressources de calcul dans votre charge de travail ?
<a name="perf-02"></a>

 Le choix d'une solution de calcul optimale pour une charge de travail particulière peut varier selon la conception de l'application, les modèles d'utilisation et les paramètres de configuration. Les architectures peuvent utiliser différentes solutions de calcul pour divers composants et permettent différentes fonctionnalités pour améliorer les performances. Choisir une solution de calcul inadaptée pour une architecture peut nuire à ses performances. 

**Topics**
+ [PERF02-BP01 Sélectionner les meilleures options de calcul pour votre charge de travail](perf_compute_hardware_select_best_compute_options.md)
+ [PERF02-BP02 Comprendre les configurations et les fonctionnalités de calcul disponibles](perf_compute_hardware_understand_compute_configuration_features.md)
+ [PERF02-BP03 Collecter les métriques liées au calcul](perf_compute_hardware_collect_compute_related_metrics.md)
+ [PERF02-BP04 Configurer et dimensionner correctement les ressources de calcul](perf_compute_hardware_configure_and_right_size_compute_resources.md)
+ [PERF02-BP05 Mettre à l'échelle vos ressources de calcul de manière dynamique](perf_compute_hardware_scale_compute_resources_dynamically.md)
+ [PERF02-BP06 Utiliser des accélérateurs de calcul matériels optimisés](perf_compute_hardware_compute_accelerators.md)

# PERF02-BP01 Sélectionner les meilleures options de calcul pour votre charge de travail
<a name="perf_compute_hardware_select_best_compute_options"></a>

 La sélection de l'option de calcul la mieux adaptée à votre charge de travail vous permet d'améliorer les performances, de réduire les coûts d'infrastructure inutiles et de diminuer les efforts opérationnels nécessaires pour maintenir votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous utilisez la même option de calcul que celle utilisée sur site. 
+  Vous manquez de connaissances sur les options, les fonctionnalités et les solutions de calcul cloud et sur la manière dont elles pourraient améliorer vos performances de calcul. 
+  Vous surprovisionnez une option de calcul existante pour répondre aux exigences de mise à l'échelle ou de performances, alors qu'une autre option de calcul s'alignerait plus précisément sur les caractéristiques de votre charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** En identifiant les exigences de calcul et en les comparant aux options disponibles, vous pouvez optimiser votre charge de travail en termes de ressources. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Pour optimiser vos charges de travail cloud afin d'améliorer l'efficacité des performances, il est important de sélectionner les options de calcul les mieux adaptées à votre cas d'utilisation et à vos exigences de performances. AWS fournit une variété d'options de calcul qui sont adaptées aux différentes charges de travail dans le cloud. Par exemple, vous pouvez utiliser [Amazon EC2](https://docs.aws.amazon.com/ec2/) pour lancer et gérer des serveurs virtuels, [AWS Lambda](https://docs.aws.amazon.com/lambda/?icmpid=docs_homepage_featuredsvcs) pour exécuter du code sans avoir à provisionner ou gérer des serveurs, [Amazon ECS](https://aws.amazon.com/ecs/) ou [Amazon EKS](https://aws.amazon.com/eks/) pour exécuter et gérer des conteneurs, ou [AWS Batch](https://aws.amazon.com/batch/) pour traiter de gros volumes de données en parallèle. En fonction de vos besoins en termes de mise à l'échelle et de calcul, vous devez choisir et configurer la solution de calcul optimale pour votre situation. Vous pouvez également envisager d'utiliser plusieurs types de solutions de calcul dans une seule charge de travail, car chacune présente ses avantages et ses inconvénients. 

 Les étapes suivantes vous guident dans la sélection des options de calcul adaptées aux caractéristiques de votre charge de travail et à vos exigences de performances. 

## Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Comprenez les exigences de calcul de votre charge de travail. Les exigences clés à prendre en compte incluent les besoins de traitement, les modèles de trafic, les modèles d'accès aux données, les besoins de mise à l'échelle et les exigences de latence. 

1.  Découvrez les différentes options de calcul disponibles pour votre charge de travail sur AWS (comme décrit dans [PERF01-BP01 Découvrir et se familiariser avec les services et fonctionnalités cloud disponibles](perf_architecture_understand_cloud_services_and_features.md). » Voici quelques options de calcul AWS clés, leurs caractéristiques et leurs cas d'utilisation courants :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_compute_hardware_select_best_compute_options.html)

1.  Évaluez les coûts (tels que le tarif horaire ou le transfert de données) et les frais de gestion (tels que l'application de correctifs et la mise à l'échelle) associés à chaque option de calcul. 

1.  Réalisez des tests et procédez au benchmarking dans un environnement hors production afin d'identifier l'option de calcul la mieux adaptée à vos exigences en termes de charge de travail. 

1.  Après avoir testé et identifié votre nouvelle solution de calcul, planifiez votre migration et validez vos métriques de performance. 

1.  Utilisez des outils de surveillance AWS tels que [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) et des services d'optimisation tels que [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) pour optimiser en permanence vos ressources de calcul en fonction des modèles d'utilisation réels. 

 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Types d'instances Amazon EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Conteneurs Amazon EKS : composants master Amazon EKS ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon Amazon ECS ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 
+ [Conseils prescriptifs pour les conteneurs](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23containers&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 
+  [Conseils prescriptifs pour les modèles sans serveur](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23serverless&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 

 **Vidéos connexes :** 
+  [Comment choisir l'option de calcul pour les startups](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 
+  [Optimisez les performances et les coûts de votre calcul AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Fondations Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Déployez des modèles de ML à des fins d'inférence avec des performances élevées et à faible coût](https://www.youtube.com/watch?v=4FqHt5bmS2o) 
+  [Un calcul de meilleure qualité, plus rapide et moins cher : rentabiliser Amazon EC2](https://www.youtube.com/watch?v=_dvh4P2FVbw&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Migrer l'application Web vers des conteneurs (langue française non garantie)](https://application-migration-with-aws.workshop.aws/en/container-migration.html) 
+  [Exécuter un modèle Hello World sans serveur](https://aws.amazon.com/getting-started/hands-on/run-serverless-code/) 

# PERF02-BP02 Comprendre les configurations et les fonctionnalités de calcul disponibles
<a name="perf_compute_hardware_understand_compute_configuration_features"></a>

 Découvrez les options et les fonctionnalités de configuration disponibles pour votre service de calcul qui vous aideront à allouer la quantité de ressources appropriée et à améliorer l'efficacité des performances. 

 **Anti-modèles courants :** 
+  Vous ne comparez pas les options de calcul ou les familles d'instances disponibles avec les caractéristiques de la charge de travail. 
+  Vous surprovisionnez les ressources de calcul pour répondre aux pics de demande. 

** Avantages liés au respect de cette bonne pratique :** Familiarisez-vous avec les fonctionnalités et les configurations de calcul d'AWS pour pouvoir utiliser une solution de calcul optimisée qui répond aux caractéristiques et aux besoins de votre charge de travail.

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Chaque solution de calcul dispose de configurations et de fonctionnalités uniques pour prendre en charge différentes caractéristiques et exigences de charge de travail. Découvrez comment ces options soutiennent votre charge de travail et déterminez celles qui sont optimales pour votre système. Parmi ces options, citons, par exemple) la famille d'instances, les tailles, les fonctionnalités (GPU, E/S), la capacité de débordement (bursting), les délais d'attente, les tailles de fonction, les instances de conteneur et la simultanéité. Si votre charge de travail utilise la même option de calcul depuis plus de quatre semaines et que vous anticipez que les caractéristiques resteront les mêmes à l'avenir, vous pouvez utiliser [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/)  pour déterminer si votre option de calcul actuelle est adaptée aux charges de travail du point de vue du processeur et de la mémoire. 

## Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Comprenez les exigences de la charge de travail (comme les besoins en UC, la mémoire et la latence). 

1.  Consultez la documentation AWS et les bonnes pratiques pour en savoir plus sur les options de configuration recommandées qui peuvent vous aider à améliorer vos performances de calcul. Voici quelques options de configuration clés à prendre en compte :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_compute_hardware_understand_compute_configuration_features.html)

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Types d'instances Amazon EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Contrôle de l'état du processeur pour votre instance Amazon EC2 (langue française non garantie) ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [Conteneurs Amazon EKS : composants master Amazon EKS ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon Amazon ECS ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 

 **Vidéos connexes :** 
+  [Fondations Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Optimisez les performances et les coûts de votre calcul AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Dimensionnement avec Compute Optimizer et activation de l'utilisation de la mémoire](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP03 Collecter les métriques liées au calcul
<a name="perf_compute_hardware_collect_compute_related_metrics"></a>

 Enregistrez et suivez les métriques liées au calcul pour mieux comprendre comment fonctionnent vos ressources de calcul et améliorer leurs performances et leur utilisation. 

 **Anti-modèles courants :** 
+  Vous utilisez uniquement la recherche manuelle des fichiers journaux pour les métriques.  
+  Vous n'utilisez que les métriques par défaut enregistrées par votre logiciel de surveillance. 
+  Vous n'examinez les métriques qu'en cas de problème. 

 **Avantages liés au respect de cette bonne pratique :** En collectant des métriques liées aux performances, vous pouvez aligner les performances des applications sur les exigences de l'entreprise afin de garantir que vous répondez à vos besoins en matière de charge de travail. Cela peut également vous aider à améliorer en continu les performances et l'utilisation des ressources de votre charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les charges de travail cloud peuvent générer de gros volumes de données telles que des métriques, des journaux et des événements. Dans le AWS Cloud, la collecte de métriques est une étape cruciale qui permet d'améliorer la sécurité, la rentabilité, les performances et la durabilité. AWS fournit un large éventail de métriques liées aux performances à l'aide de services de surveillance, tels que [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) pour vous fournir des informations précieuses. Les métriques telles que l'utilisation de l'UC, l'utilisation de la mémoire, les E/S de disque et les métriques entrantes et sortantes du réseau peuvent fournir des informations sur les niveaux d'utilisation ou les goulots d'étranglement au niveau des performances. Utilisez ces métriques dans le cadre d'une approche fondée sur les données pour ajuster activement et optimiser les ressources de votre charge de travail.  Dans un scénario idéal, vous devriez collecter toutes les métriques relatives à vos ressources de calcul sur une plateforme unique, avec des stratégies de conservation mises en œuvre pour atteindre les objectifs financiers et opérationnels. 

## Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Identifiez les métriques liées aux performances qui sont pertinentes pour votre charge de travail. Vous devriez collecter des métriques relatives à l'utilisation des ressources et au fonctionnement de votre charge de travail cloud (comme le temps de réponse et le débit). 

   1.  [Métriques par défaut Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) 

   1.  [Métriques Amazon ECS par défaut](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cloudwatch-metrics.html) 

   1.  [Métriques par défaut Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/kubernetes-eks-metrics.html) 

   1.  [Métriques Lambda par défaut](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-access-metrics.html) 

   1.  [Métriques de mémoire et de disque Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/mon-scripts.html) 

1.  Choisissez et configurez la solution de journalisation et de surveillance adaptée à votre charge de travail. 

   1.  [Observabilité native AWS](https://catalog.workshops.aws/observability/en-US/aws-native) 

   1.  [AWS Distro for OpenTelemetry](https://aws.amazon.com/otel/) 

   1.  [Amazon Managed Service for Prometheus](https://docs.aws.amazon.com/grafana/latest/userguide/prometheus-data-source.html) 

1.  Définissez le filtre et l'agrégation requis pour les métriques en fonction de vos exigences en matière de charge de travail. 

   1.  [Quantifier les métriques d'application personnalisées avec Amazon CloudWatch Logs et les filtres de métrique (langue française non garantie)](https://aws.amazon.com/blogs/mt/quantify-custom-application-metrics-with-amazon-cloudwatch-logs-and-metric-filters/) 

   1.  [Collecter des métriques personnalisées avec le balisage stratégique Amazon CloudWatch (langue française non garantie)](https://aws.amazon.com/blogs/infrastructure-and-automation/collect-custom-metrics-with-amazon-cloudwatch-strategic-tagging/) 

1.  Configurez des stratégies de conservation des données pour vos métriques afin qu'elles correspondent à vos objectifs sécuritaires et opérationnels. 

   1.  [Métriques de conservation des données pour CloudWatch](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Conservation des données pour CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

1.  Si nécessaire, créez des alarmes et des notifications pour vos métriques afin de vous aider à résoudre de manière proactive les problèmes liés aux performances. 

   1.  [Créer des alarmes pour les métriques personnalisées à l'aide de la détection d'anomalies Amazon CloudWatch (langue française non garantie)](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/create-alarms-for-custom-metrics-using-amazon-cloudwatch-anomaly-detection.html) 

   1.  [Créer des métriques et des alarmes pour certaines pages Web avec RUM Amazon CloudWatch (langue française non garantie)](https://aws.amazon.com/blogs/mt/create-metrics-and-alarms-for-specific-web-pages-amazon-cloudwatch-rum/) 

1.  Utilisez l'automatisation pour déployer vos agents d'agrégation de métriques et de journaux. 

   1.  [Automation AWS Systems Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html?ref=wellarchitected) 

   1.  [Collecteur OpenTelemetry](https://aws-otel.github.io/docs/getting-started/collector) 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Documentation Amazon CloudWatch](https://docs.aws.amazon.com/cloudwatch/index.html?ref=wellarchitected) 
+  [Collecte des métriques et des journaux des instances Amazon EC2 et serveurs sur site avec l'agent CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Accès à Amazon CloudWatch Logs pour AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-logs.html?ref=wellarchitected) 
+  [Utiliser CloudWatch Logs avec des instances de conteneur](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/using_cloudwatch_logs.html?ref=wellarchitected) 
+  [Publier des métriques personnalisées](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html?ref=wellarchitected) 
+  [AWS Answers : journalisation centralisée](https://aws.amazon.com/answers/logging/centralized-logging/?ref=wellarchitected) 
+  [Services AWS publiant des métriques CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CW_Support_For_AWS.html?ref=wellarchitected) 
+  [Surveillance d'Amazon EKS sur AWS Fargate](https://aws.amazon.com/blogs/containers/monitoring-amazon-eks-on-aws-fargate-using-prometheus-and-grafana/) 

 **Vidéos connexes :** 
+  [Application Performance Management on AWS](https://www.youtube.com/watch?v=5T4stR-HFas&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Niveau 100 : surveillance avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [Niveau 100 : surveillance d'une instance Windows EC2 avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_windows_ec2_cloudwatch/) 
+  [Niveau 100 : surveillance d'une instance Amazon Linux EC2 avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_linux_ec2_cloudwatch/) 

# PERF02-BP04 Configurer et dimensionner correctement les ressources de calcul
<a name="perf_compute_hardware_configure_and_right_size_compute_resources"></a>

 Configurez et dimensionnez correctement les ressources de calcul en fonction des exigences de performance de votre charge de travail et évitez de sous-utiliser ou de surexploiter les ressources. 

 **Anti-modèles courants :** 
+  Vous ignorez les exigences de performance de votre charge de travail, ce qui entraîne un surprovisionnement ou un sous-provisionnement des ressources de calcul. 
+  Vous ne choisissez que la plus grande ou la plus petite instance disponible pour toutes les charges de travail. 
+  Vous n'utilisez qu'une seule famille d'instances pour faciliter la gestion. 
+  Vous ignorez les recommandations d'AWS Cost Explorer ou de Compute Optimizer concernant le redimensionnement. 
+  Vous ne réévaluez pas la charge de travail pour voir si de nouveaux types d'instances pourraient convenir. 
+  Vous ne certifiez qu'un petit nombre de configurations d'instance pour votre organisation. 

 **Avantages liés au respect de cette bonne pratique :** Dimensionner correctement les ressources de calcul garantit le fonctionnement optimal dans le cloud en évitant le surprovisionnement et le sous-provisionnement des ressources. Le dimensionnement correct des ressources de calcul se traduit généralement par de meilleures performances, une meilleure expérience client et une baisse des coûts. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Le dimensionnement correct permet aux organisations d'exploiter leur infrastructure cloud de manière efficace et rentable tout en répondant aux besoins de l'entreprise. Le surprovisionnement des ressources cloud peut entraîner des coûts supplémentaires, tandis que le sous-provisionnement peut générer de faibles performances et une expérience client négative. AWS fournit des outils tels que [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) et [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) qui utilisent des données historiques pour fournir des recommandations de redimensionnement de vos ressources de calcul. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Choisissez le type d'instance qui correspond le mieux à vos besoins : 
  +  [Comment choisir le type d'instance Amazon EC2 approprié pour ma charge de travail ?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
  +  [Sélection de type d'instance basée sur des attributs pour la flotte Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-fleet-attribute-based-instance-type-selection.html) 
  +  [Créez un groupe Auto Scaling en utilisant la sélection du type d'instance basée sur des attributs (langue française non garantie)](https://docs.aws.amazon.com/autoscaling/ec2/userguide/create-asg-instance-type-requirements.html) 
  +  [Optimisation de vos coûts de calcul Kubernetes avec la consolidation Karpenter (langue française non garantie)](https://aws.amazon.com/blogs/containers/optimizing-your-kubernetes-compute-costs-with-karpenter-consolidation/) 
+  Analysez les différentes caractéristiques de performances de votre charge de travail et la façon dont ces caractéristiques se rapportent à la mémoire, au réseau et à l'utilisation du processeur. Utilisez ces données pour choisir les ressources qui correspondent le mieux aux objectifs de votre charge de travail en termes de profil et de performance. 
+  Surveillez l'utilisation de vos ressources à l'aide des outils de surveillance d'AWS tels que Amazon CloudWatch. 
+  Sélectionnez la configuration adaptée à vos ressources de calcul. 
  +  Pour les charges de travail éphémères, évaluez les [métriques d'instance Amazon CloudWatch](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) telles que `CPUUtilization` pour identifier si l'instance est sous-utilisée ou surexploitée. 
  +  Pour les charges de travail stables, vérifiez les outils de redimensionnement AWS tels que Optimiseur de calcul AWS et AWS Trusted Advisor à intervalles réguliers pour identifier les opportunités d'optimisation et de redimensionnement des ressources de calcul. 
    +  [Atelier Well-Architected : recommandations de redimensionnement ](https://wellarchitectedlabs.com/cost/100_labs/100_aws_resource_optimization/) 
    +  [Atelier Well-Architected : redimensionnement avec Compute Optimizer ](https://wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/) 
+  Testez les changements de configuration dans un environnement hors production avant de les implémenter dans un environnement réel. 
+  Réévaluez en permanence les nouvelles offres de calcul et comparez-les aux besoins de votre charge de travail. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS](https://aws.amazon.com/products/compute/) 
+  [Types d'instances Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs Amazon EKS : composants master Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle de l'état du processeur pour votre instance Amazon EC2 (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Vidéos connexes :** 
+  [Fondations Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Un calcul de meilleure qualité, plus rapide et moins cher : rentabiliser Amazon EC2](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Déployez des modèles de ML à des fins d'inférence avec des performances élevées et à faible coût](https://www.youtube.com/watch?v=4FqHt5bmS2o) 
+  [Optimisez les performances et les coûts de votre calcul AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+  [Simplifier le traitement des données pour améliorer l'innovation grâce à des outils sans serveur](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 

 **Exemples connexes :** 
+  [Dimensionnement avec Compute Optimizer et activation de l'utilisation de la mémoire](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP05 Mettre à l'échelle vos ressources de calcul de manière dynamique
<a name="perf_compute_hardware_scale_compute_resources_dynamically"></a>

 Utilisez l'élasticité du cloud pour mettre à l'échelle vos ressources de calcul de manière dynamique afin de répondre à vos besoins et éviter de surprovisionner ou de sous-provisionner la capacité de votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous réagissez aux alertes en augmentant manuellement la capacité. 
+  Vous utilisez les mêmes recommandations de dimensionnement (généralement, infrastructure statique) que sur site. 
+  Vous conservez une capacité accrue après un événement de mise à l'échelle au lieu de la réduire. 

 **Avantages liés au respect de cette bonne pratique :** En configurant et en testant l'élasticité des ressources de calcul, vous pouvez économiser de l'argent, maintenir les points de référence des performances et améliorer la fiabilité en fonction de l'évolution du trafic. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 AWS apporte la flexibilité nécessaire pour mettre à l'échelle vos ressources de manière dynamique grâce à divers mécanismes de mise à l'échelle afin de répondre à l'évolution de la demande. Combinée aux métriques liées au calcul, la mise à l'échelle dynamique permet aux charges de travail de réagir automatiquement aux changements et d'utiliser l'ensemble optimal de ressources de calcul pour atteindre son objectif. 

 Vous pouvez utiliser plusieurs approches pour rapprocher l'offre de ressources de la demande. 
+  **Approche visant à suivre les cibles**: surveillez votre métrique de capacité de mise à l'échelle et augmentez ou réduisez automatiquement votre capacité selon vos besoins. 
+  **Mise à l'échelle prédictive**: mettez à l'échelle en prévision des tendances quotidiennes et hebdomadaires. 
+  **Approche basée sur un calendrier**: planifiez votre propre calendrier de mise à l'échelle en fonction de changements de charge prévisibles. 
+  **Mise à l'échelle des services**: choisissez des services (sans serveur, par exemple) conçus pour se mettre à l'échelle automatiquement. 

 Vous devez vous assurer que les déploiements de charge de travail peuvent gérer les événements de mise à l'échelle ascendante et descendante. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Les instances de calcul, les conteneurs et les fonctions fournissent des mécanismes d'élasticité, soit en combinaison avec l'autoscaling, soit en tant que fonctionnalité du service. Voici des exemples de mécanismes d'autoscaling :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_compute_hardware_scale_compute_resources_dynamically.html)
+  La mise à l'échelle est souvent abordée pour les services de calcul, tels que les instances Amazon EC2 ou les fonctions AWS Lambda. Assurez-vous également de prendre en compte la configuration des services non liés au calcul tels que [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/auto-scaling.html) afin de répondre à la demande. 
+  Vérifiez que les métriques de mise à l'échelle correspondent aux caractéristiques de la charge de travail en cours de déploiement. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N'en faites pas votre métrique principale. Utilisez plutôt la profondeur de la file d'attente des tâches de transcodage. Vous pouvez utiliser une [métrique personnalisée](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) pour votre politique de mise à l'échelle si besoin. Pour choisir les bonnes métriques, tenez compte des conseils suivants pour Amazon EC2 : 
  +  La métrique doit être une métrique d'utilisation valide et décrire à quel point l'instance est occupée. 
  +  La valeur de la métrique doit augmenter ou diminuer proportionnellement au nombre d'instances dans le groupe Auto Scaling. 
+  Assurez-vous d'utiliser [la mise à l'échelle dynamique](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) plutôt que la [mise à l'échelle manuelle](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) pour votre groupe Auto Scaling. Nous vous recommandons également d'utiliser [des politiques de mise à l'échelle du suivi des cibles](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) dans votre mise à l'échelle dynamique. 
+  Vérifiez que les déploiements de charges de travail peuvent gérer les deux événements de mise à l'échelle (augmentation et diminution des charges de travail). À titre d'exemple, vous pouvez utiliser [l'historique d'activité](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) pour vérifier une activité de mise à l'échelle pour un groupe Auto Scaling. 
+  Évaluez votre charge de travail pour les modèles prédictifs et mettez-la à l'échelle de manière proactive pour anticiper les changements prévisibles et prévus de la demande. Avec la mise à l'échelle prédictive, vous pouvez supprimer le besoin de surprovisionner de la capacité. Pour en savoir plus, consultez [Mise à l'échelle prédictive avec Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). » 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS](https://aws.amazon.com/products/compute/) 
+  [Types d'instances Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs Amazon EKS : composants master Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle de l'état du processeur pour votre instance Amazon EC2 (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 
+  [En savoir plus sur la Auto Scaling d'un cluster Amazon ECS](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 
+  [Présentation de Karpenter, un Kubernetes Cluster Autoscaler hautement performant et open source (langue française non garantie)](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 

 **Vidéos connexes :** 
+  [Fondations Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Un calcul de meilleure qualité, plus rapide et moins cher : rentabiliser Amazon EC2](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Optimisez les performances et les coûts de votre calcul AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+  [Concevoir un environnement de calcul rentable, économe en énergie et en ressources](https://www.youtube.com/watch?v=8zsC5e1eLCg) 

 **Exemples connexes :** 
+  [Exemples de groupes Amazon EC2 Auto Scaling](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Implémenter la mise à l'échelle automatique avec Karpenter](https://www.eksworkshop.com/beginner/085_scaling_karpenter/) 

# PERF02-BP06 Utiliser des accélérateurs de calcul matériels optimisés
<a name="perf_compute_hardware_compute_accelerators"></a>

 Utilisez des accélérateurs matériels pour exécuter certaines fonctions de manière plus efficace que les alternatives basées sur l'UC. 

 **Anti-modèles courants :** 
+  En ce qui concerne votre charge de travail, vous n'avez pas comparé une instance à usage général à une instance dédiée capable de fournir de meilleures performances à faible coût. 
+  Vous utilisez des accélérateurs de calcul matériels pour les tâches qui peuvent être plus efficaces en utilisant des alternatives basées sur l'UC. 
+  Vous ne surveillez pas l'utilisation du GPU. 

**Avantages liés au respect de cette bonne pratique :** En utilisant des accélérateurs matériels, tels que des unités de traitement graphique (GPU) et des circuits logiques programmables (FPGA), vous pouvez exécuter certaines fonctions de traitement de manière plus efficace. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les instances de calcul accéléré donnent accès à des accélérateurs de calcul matériels tels que les GPU et les FPGA. Ces accélérateurs matériels exécutent certaines fonctions comme le traitement graphique ou la correspondance de modèles de données plus efficacement que les alternatives basées sur l'UC. De nombreuses charges de travail accélérées, telles que le rendu, le transcodage et le machine learning, sont très variables en termes d'utilisation des ressources. Exécutez ce matériel uniquement pendant le temps nécessaire et mettez-le hors service grâce à l'automatisation lorsque vous n'en avez plus besoin afin d'améliorer l'efficacité globale des performances. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Identifiez quelles [instances informatiques accélérées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html) peuvent répondre à vos besoins. 
+  Pour les charges de travail de machine learning, tirez parti d'un matériel conçu spécialement pour votre charge de travail, comme [AWS Trainium](https://aws.amazon.com/machine-learning/trainium/), [AWS Inferentia](https://aws.amazon.com/machine-learning/inferentia/)et [Amazon EC2 DL1](https://aws.amazon.com/ec2/instance-types/dl1/). » Les instances Inferentia AWS, telles que les instances Inf2, [offrent des performances par watt jusqu'à 50 % supérieures à celles des instances comparables Amazon EC2](https://aws.amazon.com/machine-learning/inferentia/). » 
+  Collectez des métriques d'utilisation pour vos instances de calcul accéléré. Par exemple, vous pouvez utiliser un agent CloudWatch pour collecter des métriques comme `utilization_gpu` et `utilization_memory` pour vos GPU, comme indiqué dans [Collecter les métriques des GPU NVIDIA avec Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-NVIDIA-GPU.html). 
+  Optimisez le code, le fonctionnement du réseau et les paramètres des accélérateurs matériels pour veiller à ce que le matériel sous-jacent soit pleinement utilisé. 
  +  [Optimisation des paramètres GPU](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/optimize_gpu.html) 
  +  [Surveillance et optimisation des GPU dans l'AMI Deep Learning](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-gpu.html) 
  +  [Optimisation des E/S pour le réglage des performances de GPU pour l'entraînement du deep learning dans Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/optimizing-i-o-for-gpu-performance-tuning-of-deep-learning-training-in-amazon-sagemaker/) 
+  Utilisez les dernières bibliothèques performantes et les pilotes GPU. 
+  Utilisez l'automatisation pour libérer les instances GPU lorsqu'elles ne sont pas utilisées. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Instances GPU (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#gpu-instances) 
+  [Instances avec Trainium AWS (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-trainium-instances) 
+  [Instances avec Inferentia AWS (langue française non garantie)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-inferentia-instances) 
+  [Passons à l'architecture \$1 Architecture avec des puces personnalisées et des accélérateurs](https://aws.amazon.com/blogs/architecture/lets-architect-custom-chips-and-accelerators/) 
+  [Calcul accéléré](https://aws.amazon.com/ec2/instance-types/#Accelerated_Computing) 
+  [Instances VT1 Amazon EC2](https://aws.amazon.com/ec2/instance-types/vt1/) 
+  [Comment choisir le type d'instance Amazon EC2 approprié pour ma charge de travail ?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
+  [Choisissez le meilleur accélérateur d'IA et la meilleure compilation de modèles pour l'inférence de vision par ordinateur avec Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/choose-the-best-ai-accelerator-and-model-compilation-for-computer-vision-inference-with-amazon-sagemaker/) 

 **Vidéos connexes :** 
+  [How to select Amazon EC2 GPU instances for deep learning](https://www.youtube.com/watch?v=4bVrIbgGWEA&ab_channel=AWSEvents) 
+  [Deploying Cost-Effective Deep Learning Inference](https://www.youtube.com/watch?v=WiCougIDRsw&ab_channel=AWSOnlineTechTalks) 

# Gestion des données
<a name="a-data-management"></a>

# PERF 3. Comment stockez-vous aux données de votre charge de travail, comment les gérez-vous et comment y accédez-vous ?
<a name="perf-03"></a>

 La solution optimale de gestion des données pour un système particulier varie en fonction du type de données (bloc, fichier ou objet), des modèles d'accès (aléatoire ou séquentiel), du débit requis, de la fréquence d'accès (en ligne, hors ligne, archivage), de la fréquence de mise à jour (WORM, dynamique), ainsi que des contraintes de disponibilité et de durabilité. Les charges de travail bien architecturées utilisent des magasins de données sur mesure qui intègrent différentes fonctionnalités pour améliorer les performances. 

**Topics**
+ [PERF03-BP01 Utiliser un magasin de données dédié le mieux adapté à vos besoins en matière de stockage des données et d'accès aux données](perf_data_use_purpose_built_data_store.md)
+ [PERF03-BP02 Évaluer les options de configuration disponibles pour un magasin de données](perf_data_evaluate_configuration_options_data_store.md)
+ [PERF03-BP03 Collecter et archiver les métriques de performance du magasin de données](perf_data_collect_record_data_store_performance_metrics.md)
+ [PERF03-BP04 Mettre en œuvre des stratégies pour améliorer les performances des requêtes dans un magasin de données](perf_data_implement_strategies_to_improve_query_performance.md)
+ [PERF03-BP05 Mise en œuvre de modèles d'accès aux données utilisant la mise en cache](perf_data_access_patterns_caching.md)

# PERF03-BP01 Utiliser un magasin de données dédié le mieux adapté à vos besoins en matière de stockage des données et d'accès aux données
<a name="perf_data_use_purpose_built_data_store"></a>

 Comprenez les caractéristiques des données (telles que la possibilité de partage, la taille, la taille du cache, les modèles d'accès, la latence, le débit et la persistance des données) afin de sélectionner les magasins de données dédiés (stockage ou base de données) adaptés à votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous vous en tenez à un magasin de données, car l'équipe interne sait comment tirer parti de ce type de solution en particulier. 
+  Vous partez du principe que toutes les charges de travail ont des exigences similaires en termes de stockage de données et d'accès aux données. 
+  Vous n'avez pas implémentée de catalogue de données pour inventorier vos ressources de données. 

 **Avantages liés au respect de cette bonne pratique :** En comprenant l'importance des caractéristiques et des exigences des données, vous pouvez déterminer la technologie de stockage la plus efficace et la plus performante adaptée à vos besoins en matière de charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Lors de la sélection et de la mise en œuvre du stockage des données, assurez-vous que les caractéristiques d'interrogation, de mise à l'échelle et de stockage répondent aux exigences en matière de données de charge de travail. AWS fournit de nombreuses technologies de stockage de données et de base de données, notamment le stockage par blocs, le stockage d'objets, le stockage en continu, le système de fichiers et les bases de données relationnelles, clé-valeur, document, en mémoire, orientées graphe, de séries chronologiques et de registre. Chaque solution de gestion de données propose des options et des configurations pour prendre en charge vos cas d'utilisation et vos modèles de données. En comprenant les caractéristiques et les exigences des données, vous pouvez vous affranchir de la technologie de stockage monolithique et des approches restrictives et universelles pour vous concentrer sur la gestion appropriée des données. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Procédez à l'inventaire des différents types de données qui existent dans votre charge de travail. 
+  Comprenez et documentez les caractéristiques et les exigences des données, notamment : 
  +  Type de données (non structurées, semi-structurées, relationnelles) 
  +  Volume et croissance des données 
  +  Durabilité des données : persistantes, éphémères, temporaires 
  +  Exigences ACID (atomicité, cohérence, isolement, durabilité) 
  +  Modèles d'accès aux données (à lecture intensive ou à écriture intensive) 
  +  Latence 
  +  débit 
  +  IOPS (opérations d'entrée/sortie par seconde) 
  +  Durée de conservation des données 
+  Découvrez les différents magasins de données disponibles pour votre charge de travail sur AWS qui peuvent répondre aux caractéristiques de vos données (comme indiqué dans [PERF01-BP01 Découvrir et se familiariser avec les services et fonctionnalités cloud disponibles](perf_architecture_understand_cloud_services_and_features.md)). Voici quelques exemples de technologies de stockage AWS et leurs principales caractéristiques :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_data_use_purpose_built_data_store.html)
+  Si vous créez une plateforme de données, tirez parti de [l'architecture de données moderne](https://aws.amazon.com/big-data/datalakes-and-analytics/modern-data-architecture/) sur AWS pour intégrer votre lac de données, votre entrepôt de données et vos magasins de données spécialement conçus. 
+  Les principales questions que vous devez vous poser lors du choix d'un magasin de données pour votre charge de travail sont les suivantes :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_data_use_purpose_built_data_store.html)
+  Réalisez des tests et procédez au benchmarking dans un environnement hors production afin d'identifier le magasin de données qui peut répondre à vos exigences en termes de charge de travail. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Types de volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Stockage Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS : Amazon EFS Performance](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Amazon FSx for Lustre Performance](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Amazon FSx for Windows File Server Performance](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+  [Amazon Glacier : documentation Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3 : directives en matière de débit de demandes et de performances](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Stockage cloud avec AWS](https://aws.amazon.com/products/storage/) 
+  [Caractéristiques d'E/S Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 
+  [Bases de données cloud avec AWS ](https://aws.amazon.com/products/databases/?ref=wellarchitected) 
+  [Mise en cache de bases de données AWS ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/?ref=wellarchitected) 
+  [Bonnes pratiques Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Performances Amazon Redshift ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Les 10 meilleures techniques pour améliorer les performances d'Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Bonnes pratiques Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/?ref=wellarchitected) 
+  [Bonnes pratiques Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html?ref=wellarchitected) 
+  [Choisir entre Amazon EC2 et Amazon RDS (langue française non garantie)](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-sql-server/comparison.html) 
+ [ Bonnes pratiques d'implémentation pour Amazon ElastiCache ](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/BestPractices.html)

 **Vidéos connexes :** 
+  [En savoir plus sur Amazon EBS](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Optimisez vos performances de stockage avec Amazon S3](https://www.youtube.com/watch?v=54AhwfME6wI) 
+ [Moderniser les applications avec les bases de données sur mesure](https://www.youtube.com/watch?v=V-DiplATdi0)
+ [ Stockage démystifié : comment tout cela fonctionne Amazon Aurora ](https://www.youtube.com/watch?v=uaQEGLKtw54)
+ [ Plongée approfondie : modèles de conception avancés Amazon DynamoDB ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Exemples connexes :** 
+  [Pilote CSI Amazon EFS](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Pilote CSI Amazon EBS](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Utilitaires Amazon EFS](https://github.com/aws/efs-utils) 
+  [Amazon EBS Autoscale](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Exemples Amazon S3](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 
+  [Optimiser le modèle de données à l'aide du partage de données Amazon Redshift](https://wellarchitectedlabs.com/sustainability/300_labs/300_optimize_data_pattern_using_redshift_data_sharing/) 
+  [Migrations des bases de données](https://github.com/aws-samples/aws-database-migration-samples) 
+  [MS SQL Server - Démonstration de réplication AWS Database Migration Service (AWS DMS) (langue française non garantie)](https://github.com/aws-samples/aws-dms-sql-server) 
+  [Atelier pratique sur la modernisation des bases de données](https://github.com/aws-samples/amazon-rds-purpose-built-workshop) 
+  [Exemples Amazon Neptune](https://github.com/aws-samples/amazon-neptune-samples) 

# PERF03-BP02 Évaluer les options de configuration disponibles pour un magasin de données
<a name="perf_data_evaluate_configuration_options_data_store"></a>

 Comprenez et évaluez les différentes fonctionnalités et options de configuration disponibles pour vos magasins de données afin d'optimiser l'espace de stockage et les performances de votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous n'utilisez qu'un seul type de stockage (comme Amazon EBS) pour toutes les charges de travail. 
+  Vous utilisez les IOPS provisionnés pour toutes les charges de travail sans effectuer de test en situation réelle sur tous les niveaux de stockage. 
+  Vous ne connaissez pas les options de configuration de la solution de gestion de données que vous avez choisie. 
+  Vous vous concentrez uniquement sur l'augmentation de la taille de l'instance sans examiner les autres options de configuration disponibles. 
+  Vous ne testez pas les caractéristiques de mise à l'échelle de votre magasin de données. 

 **Avantages liés au respect de cette bonne pratique :** En explorant et en expérimentant les configurations de magasin de données, vous pourriez réduire le coût de l'infrastructure, améliorer les performances et réduire l'effort requis pour maintenir vos charges de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Une charge de travail peut comporter un ou plusieurs magasins de données utilisés en fonction des exigences de stockage des données et d'accès aux données. Pour optimiser l'efficacité et le coût de vos performances, vous devez évaluer les modèles d'accès aux données afin de déterminer les configurations de magasin de données appropriées. Pendant que vous explorez les options de magasin de données, tenez compte de divers aspects tels que les options de stockage, la mémoire, le calcul, le réplica en lecture, les exigences de cohérence, le regroupement de connexions et les options de mise en cache. Testez ces différentes options de configuration pour améliorer les métriques d'efficacité des performances. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Comprenez les configurations actuelles (comme le type d'instance, la taille de stockage ou la version du moteur de base de données) de votre magasin de données. 
+  Consultez la documentation AWS et les bonnes pratiques pour en savoir plus sur les options de configuration recommandées qui peuvent vous aider à améliorer les performances de votre magasin de données. Les principales options de magasin de données à prendre en compte sont les suivantes :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_data_evaluate_configuration_options_data_store.html)
+  Réalisez des tests et procédez au benchmarking dans un environnement hors production afin d'identifier l'option de configuration qui répond à vos exigences en termes de charge de travail. 
+  Après avoir réalisé vos tests, planifiez votre migration et validez vos métriques de performance. 
+  Utilisez les outils de surveillance AWS (tels que [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/)) et d'optimisation (tels que [Amazon S3 Storage Lens](https://aws.amazon.com/s3/storage-lens/)) pour optimiser en continu votre magasin de données à l'aide d'un modèle d'utilisation réel. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Stockage cloud avec AWS](https://aws.amazon.com/products/storage/?ref=wellarchitected) 
+  [Types de volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Stockage Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS : Amazon EFS Performance](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Amazon FSx for Lustre Performance](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Amazon FSx for Windows File Server Performance](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+  [Amazon Glacier : documentation Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3 : directives en matière de débit de demandes et de performances](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Stockage cloud avec AWS](https://aws.amazon.com/products/storage/) 
+  [Stockage cloud avec AWS](https://aws.amazon.com/products/storage/?ref=wellarchitected) 
+  [Caractéristiques d'E/S Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 
+  [Bases de données cloud avec AWS ](https://aws.amazon.com/products/databases/?ref=wellarchitected) 
+  [Mise en cache de bases de données AWS ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/?ref=wellarchitected) 
+  [Bonnes pratiques Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Performances Amazon Redshift ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Les 10 meilleures techniques pour améliorer les performances d'Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Bonnes pratiques Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/?ref=wellarchitected) 
+  [Bonnes pratiques Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html?ref=wellarchitected) 

 **Vidéos connexes :** 
+  [En savoir plus sur Amazon EBS](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Optimisez vos performances de stockage avec Amazon S3](https://www.youtube.com/watch?v=54AhwfME6wI) 
+ [Moderniser les applications avec les bases de données sur mesure](https://www.youtube.com/watch?v=V-DiplATdi0)
+ [ Stockage démystifié : comment tout cela fonctionne Amazon Aurora ](https://www.youtube.com/watch?v=uaQEGLKtw54)
+ [ Plongée approfondie : modèles de conception avancés Amazon DynamoDB ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Exemples connexes :** 
+  [Pilote CSI Amazon EFS](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Pilote CSI Amazon EBS](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Utilitaires Amazon EFS](https://github.com/aws/efs-utils) 
+  [Amazon EBS Autoscale](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Exemples Amazon S3](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 
+  [Exemples Amazon DynamoDB](https://github.com/aws-samples/aws-dynamodb-examples) 
+  [Exemples de migration de base de données AWS](https://github.com/aws-samples/aws-database-migration-samples) 
+  [Atelier sur la modernisation des bases de données](https://github.com/aws-samples/amazon-rds-purpose-built-workshop) 
+  [Utilisation des paramètres de votre instance de base de données Amazon RDS for PostgreSQL](https://github.com/awsdocs/amazon-rds-user-guide/blob/main/doc_source/Appendix.PostgreSQL.CommonDBATasks.Parameters.md) 

# PERF03-BP03 Collecter et archiver les métriques de performance du magasin de données
<a name="perf_data_collect_record_data_store_performance_metrics"></a>

 Suivez et archivez les métriques de performance pertinentes pour votre magasin de données afin de comprendre comment fonctionnent vos solutions de gestion des données. Ces métriques peuvent vous aider à optimiser votre magasin de données, à vérifier que les exigences de votre charge de travail sont satisfaites et à fournir une vue d'ensemble claire sur le fonctionnement de la charge de travail. 

 **Anti-modèles courants :** 
+  Vous utilisez uniquement la recherche manuelle des fichiers journaux pour les métriques. 
+  Vous publiez uniquement des métriques sur les outils internes utilisés par votre équipe et vous n'avez pas une visibilité complète de votre charge de travail. 
+  Vous n'utilisez que les métriques par défaut enregistrées par le logiciel de surveillance que vous avez sélectionné. 
+  Vous n'examinez les métriques qu'en cas de problème. 
+  Vous ne surveillez que les métriques au niveau du système et vous ne capturez pas les métriques d'accès aux données ou d'utilisation des données. 

 **Avantages liés au respect de cette bonne pratique :** La définition de points de référence pour les performances vous permet de mieux comprendre le comportement normal et les exigences des charges de travail. Les modèles anormaux peuvent être identifiés et débogués plus rapidement, ce qui améliore les performances et la fiabilité du magasin de données. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 L'enregistrement de plusieurs métriques de performance sur une période donnée est nécessaire pour la surveillance des performances de vos magasins de données. Cette surveillance vous permet non seulement de détecter les anomalies, mais aussi d'évaluer les performances par rapport aux métriques métier afin de vérifier que vous répondez aux besoins de votre charge de travail. 

 Ces métriques doivent inclure à la fois le système sous-jacent qui prend en charge le magasin de données et les métriques de la base de données. Les métriques système sous-jacentes peuvent inclure l'utilisation du processeur, la mémoire, le stockage sur disque disponible, les E/S de disque, le taux d'accès au cache et les métriques entrantes et sortantes du réseau, tandis que les métriques du magasin de données peuvent inclure les transactions par seconde, les principales requêtes, les taux de requêtes moyens, les temps de réponse, l'utilisation de l'index, les verrouillages de table, les délais d'expiration des requêtes et le nombre de connexions ouvertes. Ces données sont essentielles pour comprendre comment fonctionne la charge de travail et comment la solution de gestion des données est utilisée. Utilisez ces métriques dans le cadre d'une approche fondée sur les données pour ajuster et optimiser les ressources de votre charge de travail.  

 Utilisez des outils, des bibliothèques et des systèmes qui enregistrent des mesures de performances liées aux performances de la base de données. 

## Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Identifiez les métriques de performance clés que votre magasin de données doit suivre. 

   1.  [Amazon S3 Métriques et dimensions](https://docs.aws.amazon.com/AmazonS3/latest/userguide/metrics-dimensions.html) 

   1.  [Surveillance des métriques pour une instance Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitoring.html) 

   1.  [Surveillance de la charge de base de données avec Performance Insights sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 

   1.  [Présentation de la surveillance améliorée](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Monitoring.OS.overview.html) 

   1.  [DynamoDB Métriques et dimensions](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/metrics-dimensions.html) 

   1.  [Surveillance de DynamoDB Accelerator](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DAX.Monitoring.html) 

   1.  [Surveillance de Amazon MemoryDB avec Amazon CloudWatch](https://docs.aws.amazon.com/memorydb/latest/devguide/monitoring-cloudwatch.html) 

   1.  [Quelles métriques dois-je surveiller ?](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/CacheMetrics.WhichShouldIMonitor.html) 

   1.  [Surveillance des performances du cluster Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/metrics.html) 

   1.  [Timestream Métriques et dimensions](https://docs.aws.amazon.com/timestream/latest/developerguide/metrics-dimensions.html) 

   1.  [Métriques Amazon CloudWatch pour Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMonitoring.Metrics.html) 

   1.  [Journalisation et surveillance dans Amazon Keyspaces (for Apache Cassandra)](https://docs.aws.amazon.com/keyspaces/latest/devguide/monitoring.html) 

   1.  [Surveillance des ressources Amazon Neptune](https://docs.aws.amazon.com/neptune/latest/userguide/monitoring.html) 

1.  Utilisez une solution de journalisation et de surveillance approuvée pour collecter ces métriques. [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) peut récupérer des métriques à partir des ressources de votre architecture. Vous pouvez également récupérer et publier des métriques personnalisées pour faire apparaître des métriques d'entreprise ou des métriques dérivées. Utilisez CloudWatch ou des solutions tierces pour définir des alarmes qui indiquent les dépassements de seuils. 

1.  Vérifiez si la surveillance du magasin de données peut bénéficier d'une solution de machine learning qui détecte les anomalies de performance. 

   1.  [Amazon DevOps Guru pour Amazon RDS](https://docs.aws.amazon.com/devops-guru/latest/userguide/working-with-rds.overview.how-it-works.html) assure la visibilité des problèmes de performance et suggère des actions correctives. 

1.  Configurez la conservation des données dans votre solution de surveillance et de journalisation en fonction de vos objectifs sécuritaires et opérationnels. 

   1.  [Métriques de conservation des données pour CloudWatch](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Conservation des données pour CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Mise en cache de bases de données AWS](https://aws.amazon.com/caching/database-caching/) 
+  [Les 10 meilleures techniques pour améliorer les performances d'Amazon Athena](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/) 
+  [Bonnes pratiques Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html) 
+  [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/) 
+  [Bonnes pratiques Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html) 
+  [Bonnes pratiques Amazon Redshift Spectrum](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/) 
+  [Performances Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html) 
+  [Bases de données cloud avec AWS](https://aws.amazon.com/products/databases/) 
+  [Amazon RDS Performance Insights](https://aws.amazon.com/rds/performance-insights/) 

 **Vidéos connexes :** 
+  [Bases de données sur mesure AWS](https://www.youtube.com/watch?v=q81TVuV5u28) 
+  [Stockage démystifié : comment tout cela fonctionne Amazon Aurora](https://www.youtube.com/watch?v=uaQEGLKtw54) 
+  [Plongée approfondie : modèles de conception avancés Amazon DynamoDB](https://www.youtube.com/watch?v=6yqfmXiZTlM) 
+  [Bonnes pratiques pour la surveillance des charges de travail Redis sur Amazon ElastiCache](https://www.youtube.com/watch?v=c-hTMLN35BY&ab_channel=AWSOnlineTechTalks) 

 **Exemples connexes :** 
+  [Niveau 100 : surveillance avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [Infrastructure de collecte de métriques d'ingestion de jeux de données AWS](https://github.com/awslabs/aws-dataset-ingestion-metrics-collection-framework) 
+  [Atelier sur la surveillance Amazon RDS](https://www.workshops.aws/?tag=Enhanced%20Monitoring) 

# PERF03-BP04 Mettre en œuvre des stratégies pour améliorer les performances des requêtes dans un magasin de données
<a name="perf_data_implement_strategies_to_improve_query_performance"></a>

 Mettez en œuvre des stratégies pour optimiser les données et améliorer les requêtes sur les données afin de renforcer la capacité de mise à l’échelle et l'efficacité des performances pour votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous ne partitionnez pas les données dans votre magasin de données. 
+  Vous ne stockez les données que dans un seul format de fichier dans votre magasin de données. 
+  Vous n'utilisez pas d'index dans votre magasin de données. 

 **Avantages liés au respect de cette bonne pratique :** En optimisant les performances des données et des requêtes, vous augmentez leur efficacité, vous réduisez les coûts et vous améliorez l'expérience utilisateur. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

L'optimisation des données et des requêtes sont des aspects essentiels de l'efficacité des performances d'un magasin de données, car ils ont un impact sur les performances et la réactivité de l'ensemble de la charge de travail dans le cloud. Les données non optimisées peuvent augmenter l'utilisation des ressources et les goulots d'étranglement, ce qui réduit l'efficacité globale d'un magasin de données. 

L'optimisation des données inclut plusieurs techniques pour garantir un stockage des données et un accès aux données efficaces. Cela permet également d'améliorer les performances des requêtes dans un magasin de données. Les principales stratégies incluent le partitionnement des données, la compression des données et la dénormalisation des données, qui permettent d'optimiser les données à la fois pour le stockage et l'accès.

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Comprenez et analysez les requêtes essentielles sur les données effectuées dans votre magasin de données. 
+  Identifiez les requêtes lentes dans votre magasin de données et utilisez des plans de requêtes pour comprendre leur état actuel. 
  +  [Analyse du plan de requête dans Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/c-analyzing-the-query-plan.html) 
  +  [Utilisation d'EXPLAIN et EXPLAIN ANALYZE dans Athena (langue française non garantie)](https://docs.aws.amazon.com/athena/latest/ug/athena-explain-statement.html) 
+  Mettez en œuvre des stratégies pour améliorer les performances des requêtes. Les stratégies clés incluent : 
  +  L’utilisation d'un [format de fichier en colonnes](https://docs.aws.amazon.com/athena/latest/ug/columnar-storage.html) (comme Parquet ou ORC). 
  + La compression des données dans le magasin de données pour réduire l'espace de stockage et les opérations d'E/S.
  +  Le partitionnement des données pour diviser les données en parties plus petites et réduire le temps d'analyse des données. 
    + [ Partitionnement des données dans Athena (langue française non garantie) ](https://docs.aws.amazon.com/athena/latest/ug/partitions.html)
    + [ Partitions et distribution de données ](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.Partitions.html)
  +  L'indexation des données sur les colonnes communes de la requête. 
  +  Choisissez l'opération de jointure appropriée pour la requête. Lorsque vous joignez deux tables, spécifiez la table la plus grande sur le côté gauche de la jointure et la plus petite sur le côté droit de la jointure. 
  +  La solution de mise en cache distribuée pour améliorer la latence et réduire le nombre d'opérations d'E/S dans la base de données. 
  +  La maintenance régulière, comme l'exécution de statistiques. 
+  Expérimentez et testez les stratégies dans un environnement hors production. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Bonnes pratiques Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Performances Amazon Redshift ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Les 10 meilleures techniques pour améliorer les performances d'Amazon Athena](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Mise en cache de bases de données AWS ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [Bonnes pratiques d'implémentation pour Amazon ElastiCache](https://docs.aws.amazon.com/AmazonElastiCache/latest/UserGuide/BestPractices.html) 
+  [Partitionnement des données dans Athena (langue française non garantie)](https://docs.aws.amazon.com/athena/latest/ug/partitions.html) 

 **Vidéos connexes :** 
+  [Optimiser le modèle de données à l'aide du partage de données Amazon Redshift](https://wellarchitectedlabs.com/sustainability/300_labs/300_optimize_data_pattern_using_redshift_data_sharing/) 
+  [Optimisez les requêtes Amazon Athena grâce aux nouveaux outils d'analyse des requêtes ](https://www.youtube.com/watch?v=7JUyTqglmNU&ab_channel=AmazonWebServices) 

 **Exemples connexes :** 
+  [Pilote CSI Amazon EFS](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 

# PERF03-BP05 Mise en œuvre de modèles d'accès aux données utilisant la mise en cache
<a name="perf_data_access_patterns_caching"></a>

 Mettez en œuvre des modèles d'accès qui peuvent tirer parti de la mise en cache des données pour une récupération rapide des données fréquemment consultées. 

 **Anti-modèles courants :** 
+  Vous mettez en cache des données qui changent fréquemment. 
+  Vous utilisez les données mises en cache comme si elles étaient stockées de manière durable et toujours disponibles. 
+  Vous ne tenez pas compte de la cohérence de vos données mises en cache. 
+  Vous ne surveillez pas l'efficacité de la mise en œuvre de la mise en cache. 

 **Avantages liés au respect de cette bonne pratique :** Le stockage des données dans un cache contribue à améliorer la latence et le débit de lecture, l'expérience utilisateur et l'efficacité globale, tout en réduisant les coûts. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée : **moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Un cache est un composant logiciel ou matériel destiné à stocker des données afin que les requêtes futures portant sur les mêmes données puissent être traitées plus rapidement ou plus efficacement. Les données stockées dans un cache peuvent être reconstruites en cas de perte en répétant un calcul antérieur ou en les récupérant dans un autre magasin de données. 

 La mise en cache des données peut être l'une des stratégies les plus efficaces pour améliorer les performances globales de votre application et réduire la charge qui pèse sur vos sources de données principales sous-jacentes. Les données peuvent être mises en cache à plusieurs niveaux dans l'application, par exemple dans l'application effectuant des appels à distance et également connue sous le nom de *mise en cache côté client*, ou en utilisant un service secondaire rapide pour stocker les données, ce que l'on appelle aussi *mise en cache à distance*. 

 **Mise en cache côté client** 

 Grâce à la mise en cache côté client, chaque client (une application ou un service qui interroge le magasin de données backend) peut stocker les résultats de ses requêtes uniques localement pendant une durée spécifiée. Cela permet de réduire le nombre de requêtes adressées à un magasin de données sur le réseau en vérifiant d'abord le cache du client local. En l'absence de résultats, l'application peut alors interroger le magasin de données et stocker ces résultats localement. Ce modèle permet à chaque client de stocker les données dans l'emplacement le plus proche possible (le client lui-même), ce qui se traduit par la latence la plus faible possible. Les clients peuvent également continuer à répondre à certaines requêtes lorsque le magasin de données backend n'est pas disponible, ce qui augmente la disponibilité de l'ensemble du système. 

 L'un des inconvénients de cette approche est que lorsque plusieurs clients sont impliqués, ils peuvent stocker les mêmes données mises en cache localement. Cela entraîne à la fois une double utilisation du stockage et une incohérence des données entre ces clients. Un client peut mettre en cache les résultats d'une requête et, une minute plus tard, un autre client peut exécuter la même requête et obtenir un résultat différent. 

 **Mise en cache à distance** 

 Pour résoudre le problème de duplication des données entre clients, un service externe rapide, ou *cache distant*, peut être utilisé pour stocker les données interrogées. Au lieu de vérifier un magasin de données local, chaque client vérifie le cache distant avant d'interroger le magasin de données backend. Cette stratégie permet d'obtenir des réponses plus cohérentes entre les clients, d'améliorer l'efficacité des données stockées et d'augmenter le volume de données mises en cache, car l'espace de stockage évolue indépendamment des clients. 

 L'inconvénient d'un cache distant est que l'ensemble du système peut connaître une latence plus élevée, car un saut de réseau à réseau supplémentaire est nécessaire pour vérifier le cache distant. La mise en cache côté client peut être utilisée parallèlement à la mise en cache à distance pour une mise en cache à plusieurs niveaux afin d'améliorer la latence. 

### Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Identifiez les bases de données, les API et les services réseau susceptibles de bénéficier de la mise en cache. Les services dont la charge de travail de lecture est importante, qui ont un ratio lecture/écriture élevé ou qui sont coûteux à adapter conviennent à la mise en cache. 
   +  [Mise en cache de bases de données](https://aws.amazon.com/caching/database-caching/) 
   +  [Activez la mise en cache des API pour améliorer la réactivité.](https://docs.aws.amazon.com/apigateway/latest/developerguide/api-gateway-caching.html) 

1.  Identifiez le type de stratégie de mise en cache le mieux adapté à votre modèle d'accès. 
   +  [Stratégies de mise en cache](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/Strategies.html) 
   +  [Solutions de mise en cache AWS](https://aws.amazon.com/caching/aws-caching/) 

1.  Suivez les [bonnes pratiques en matière de mise en cache](https://aws.amazon.com/caching/best-practices/) pour votre magasin de données. 

1.  Configurez une stratégie d'invalidation du cache, telle qu'une durée de vie (TTL), pour toutes les données afin d'équilibrer la fraîcheur des données et de réduire la pression qui pèse sur le magasin de données backend. 

1.  Activez des fonctionnalités telles que les nouvelles tentatives de connexion automatiques, le backoff exponentiel, les délais d'attente côté client et le regroupement des connexions dans le client, le cas échéant, car elles peuvent améliorer les performances et la fiabilité. 
   +  [Bonnes pratiques : clients de Redis et Amazon ElastiCache (Redis OSS)](https://aws.amazon.com/blogs/database/best-practices-redis-clients-and-amazon-elasticache-for-redis/) 

1.  Surveillez le taux d'accès au cache en visant un objectif de 80 % ou plus. Des valeurs inférieures peuvent indiquer une taille de cache insuffisante ou un modèle d'accès qui ne bénéficie pas de la mise en cache. 
   +  [Quelles métriques dois-je surveiller ?](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/CacheMetrics.WhichShouldIMonitor.html) 
   +  [Bonnes pratiques pour la surveillance des charges de travail Redis sur Amazon ElastiCache](https://www.youtube.com/watch?v=c-hTMLN35BY) 
   +  [Bonnes pratiques de surveillance avec Amazon ElastiCache (Redis OSS) via Amazon CloudWatch](https://aws.amazon.com/blogs/database/monitoring-best-practices-with-amazon-elasticache-for-redis-using-amazon-cloudwatch/) 

1.  Implémentez [la réplication des données](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/Replication.Redis.Groups.html) pour transférer les lectures vers plusieurs instances et améliorer les performances et la disponibilité de lecture des données. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Utilisation d'Amazon ElastiCache Well-Architected Lens](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/WellArchitechtedLens.html) 
+  [Bonnes pratiques de surveillance avec Amazon ElastiCache (Redis OSS) via Amazon CloudWatch](https://aws.amazon.com/blogs/database/monitoring-best-practices-with-amazon-elasticache-for-redis-using-amazon-cloudwatch/) 
+  [Quelles métriques dois-je surveiller ?](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/CacheMetrics.WhichShouldIMonitor.html) 
+  [Livre blanc « Performances à grande échelle avec Amazon ElastiCache »](https://docs.aws.amazon.com/whitepapers/latest/scale-performance-elasticache/scale-performance-elasticache.html) 
+  [Défis et stratégies en matière de mise en cache](https://aws.amazon.com/builders-library/caching-challenges-and-strategies/) 

 **Vidéos connexes :** 
+  [Amazon ElastiCache Learning Path](https://pages.awscloud.com/GLB-WBNR-AWS-OTT-2021_LP_0003-DAT_AmazonElastiCache.html) 
+  [Design for success with Amazon ElastiCache best practices](https://youtu.be/_4SkEy6r-C4) 

 **Exemples connexes :** 
+  [Améliorer les performances des bases de données MySQL avec Amazon ElastiCache (Redis OSS)](https://aws.amazon.com/getting-started/hands-on/boosting-mysql-database-performance-with-amazon-elasticache-for-redis/) 

# Mise en réseau et diffusion de contenu
<a name="a-networking-delivery"></a>

# PERF 4. Comment sélectionnez-vous et configurez-vous les ressources de mise en réseau de votre charge de travail ?
<a name="perf-04"></a>

 La solution de base de données la plus efficace pour un système varie en fonction des exigences de cohérence, de disponibilité, de tolérance des partitions, de latence, de durabilité, d'évolutivité et de capacités de requête. De nombreux systèmes utilisent des solutions de base de données différentes pour divers sous-systèmes et activent des fonctionnalités distinctes pour améliorer les performances. La sélection d'une solution de base de données et de fonctionnalités incorrectes pour un système peut conduire à une efficacité moindre des performances. 

**Topics**
+ [PERF04-BP01 Compréhension de l'impact de la mise en réseau sur les performances](perf_networking_understand_how_networking_impacts_performance.md)
+ [PERF04-BP02 Évaluation des fonctionnalités de mise en réseau disponibles](perf_networking_evaluate_networking_features.md)
+ [PERF04-BP03 Choix d'une connectivité dédiée ou d'un VPN approprié pour votre charge de travail](perf_networking_choose_appropriate_dedicated_connectivity_or_vpn.md)
+ [PERF04-BP04 Utilisation de l'équilibrage de charge pour répartir le trafic entre plusieurs ressources](perf_networking_load_balancing_distribute_traffic.md)
+ [PERF04-BP05 Choix de protocoles réseau afin d'améliorer les performances](perf_networking_choose_network_protocols_improve_performance.md)
+ [PERF04-BP06 Choix du placement de votre charge de travail en fonction des exigences réseau](perf_networking_choose_workload_location_network_requirements.md)
+ [PERF04-BP07 Optimisation de la configuration réseau en fonction de métriques](perf_networking_optimize_network_configuration_based_on_metrics.md)

# PERF04-BP01 Compréhension de l'impact de la mise en réseau sur les performances
<a name="perf_networking_understand_how_networking_impacts_performance"></a>

 Analysez et comprenez l'impact des décisions liées au réseau sur votre charge de travail afin de fournir des performances efficaces et une meilleure expérience utilisateur. 

 **Anti-modèles courants :** 
+  Tout le trafic passe par vos centres de données existants. 
+  Vous acheminez l'ensemble du trafic via des pare-feux centralisés au lieu d'utiliser des outils de sécurité réseau natifs cloud. 
+  Vous configurez des connexions AWS Direct Connect sans connaître les exigences d'utilisation réelles. 
+  Vous ne tenez pas compte des caractéristiques de la charge de travail et de la surcharge de chiffrement lors de la définition de vos solutions de mise en réseau. 
+  Vous utilisez des concepts et des stratégies sur site pour les solutions de mise en réseau dans le cloud. 

 **Avantages liés au respect de cette bonne pratique :** Comprendre comment la mise en réseau affecte les performances de la charge de travail vous aidera à identifier les goulots d'étranglement potentiels, à améliorer l'expérience utilisateur, à accroître la fiabilité et à réduire la maintenance opérationnelle à mesure que la charge de travail évolue. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Le réseau est responsable de la connectivité entre les composants d'application, les services cloud, les réseaux périphériques et les données sur site et, par conséquent, il peut avoir un impact majeur sur les performances de la charge de travail. Outre les performances de la charge de travail, l'expérience utilisateur peut également être affectée par la latence du réseau, la bande passante, les protocoles, l'emplacement, la congestion du réseau, l'instabilité, le débit et les règles de routage. 

 Avoir une liste documentée des exigences de mise en réseau de la charge de travail, y compris la latence, la taille des paquets, les règles de routage, les protocoles et les modèles de trafic pris en charge. Passez en revue les solutions de mise en réseau disponibles et identifiez le service qui répond aux caractéristiques de mise en réseau de votre charge de travail. Les réseaux basés sur le cloud peuvent être rapidement recréés. L'évolution de votre architecture réseau au fil du temps est donc nécessaire pour améliorer l'efficacité des performances. 

### Étapes d'implémentation :
<a name="implementation-steps"></a>

1.  Définissez et documentez les exigences de performance réseau, y compris les métriques tels que la latence du réseau, la bande passante, les protocoles, les emplacements, les modèles de trafic (pics et fréquence), le débit, le chiffrement, l'inspection et les règles de routage. 

1.  Découvrez les principaux services AWS de mise en réseau tels que les [VPC](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html), [AWS Direct Connect](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/aws-direct-connect.html), [Elastic Load Balancing (ELB)](https://aws.amazon.com/elasticloadbalancing/)et [Amazon Route 53](https://aws.amazon.com/r53/). 

1.  Capturez les principales caractéristiques réseau suivantes :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_networking_understand_how_networking_impacts_performance.html)

1.  Définir des points de référence et et tester les performances du réseau : 

   1.  [Évaluez](https://aws.amazon.com/premiumsupport/knowledge-center/network-throughput-benchmark-linux-ec2/) le débit du réseau, car certains facteurs peuvent affecter les performances du réseau Amazon EC2 lorsque les instances se trouvent dans le même VPC. Mesurez la bande passante du réseau entre les instances Amazon EC2 Linux dans le même VPC. 

   1.  Effectuez [des tests de charge](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) pour expérimenter des solutions et des options de mise en réseau. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec un adaptateur réseau élastique (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [Improve Global Network Performance for Applications](https://youtu.be/vNIALfLTW9M) 
+  [EC2 Instances and Performance Optimization Best Practices](https://youtu.be/W0PKclqP3U0) 
+  [Optimizing Network Performance for Amazon EC2 Instances](https://youtu.be/DWiwuYtIgu0) 
+  [Networking best practices and tips with the Well-Architected Framework](https://youtu.be/wOMNpG49BeM) 
+  [AWS networking best practices in large-scale migrations](https://youtu.be/qCQvwLBjcbs) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF04-BP02 Évaluation des fonctionnalités de mise en réseau disponibles
<a name="perf_networking_evaluate_networking_features"></a>

Évaluez les fonctions de mise en réseau dans le cloud qui peuvent améliorer les performances. Mesurez l'impact de ces fonctions au moyen de tests, de métriques et de l'analyse. Par exemple, tirez parti des fonctionnalités au niveau du réseau qui sont disponibles pour réduire la latence, la distance réseau ou l'instabilité.

 **Anti-modèles courants :** 
+ Vous restez au sein d'une même région, car c'est là que votre siège social se trouve physiquement.
+ Vous utilisez des pare-feux plutôt que des groupes de sécurité pour filtrer le trafic.
+ Vous enfreignez le protocole TLS pour inspecter le trafic plutôt que de vous fier aux groupes de sécurité, aux politiques relatives aux points de terminaison et à d'autres fonctionnalités natives cloud.
+ Vous utilisez uniquement la segmentation basée sur un sous-réseau au lieu des groupes de sécurité.

 **Avantages liés au respect de cette bonne pratique :** L'évaluation de toutes les options et fonctionnalités de service peut augmenter les performances de vos charges de travail, baisser le coût d'infrastructure, réduire les efforts nécessaires à la maintenance de vos charges de travail et améliorer votre posture générale en matière de sécurité. Vous pouvez utiliser la couverture mondiale d'AWS pour fournir à vos clients une expérience de mise en réseau optimale. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 AWS propose des services comme [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) et [Amazon CloudFront](https://aws.amazon.com/cloudfront/) qui contribuent à améliorer les performances du réseau, alors que la plupart des services AWS comportent des fonctionnalités de produit (telles que [Amazon S3 Transfer](https://aws.amazon.com/s3/transfer-acceleration/) Acceleration) pour optimiser le trafic réseau. 

 Examinez les options de configuration liées au réseau disponibles et leur impact potentiel sur votre charge de travail. L'optimisation des performances dépend de la compréhension de la manière dont ces options interagissent avec votre architecture et de l'impact qu'elles auront à la fois sur les performances mesurées et sur l'expérience utilisateur. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Créer une liste des composants de la charge de travail. 
  +  Envisagez d'utiliser [AWS Cloud WAN](https://aws.amazon.com/cloud-wan/) pour créer, gérer et surveiller le réseau de votre organisation lors de la création d'un réseau mondial unifié. 
  +  Surveillez vos réseaux mondiaux et principaux avec [les métriques Amazon CloudWatch Logs](https://docs.aws.amazon.com/network-manager/latest/tgwnm/monitoring-cloudwatch-metrics.html). Exploitez [Amazon CloudWatch RUM](https://aws.amazon.com/about-aws/whats-new/2021/11/amazon-cloudwatch-rum-applications-client-side-performance/), qui fournit des informations permettant d'identifier, de comprendre et d'améliorer l'expérience numérique des utilisateurs. 
  +  Visualisez la latence réseau globale entre les Régions AWS et les zones de disponibilité, et au sein de chaque zone de disponibilité, avec [AWS Network Manager](https://aws.amazon.com/transit-gateway/network-manager/) pour mieux comprendre comment les performances de votre application sont liées aux performances du réseau AWS sous-jacent. 
  +  Utilisez un outil ou un service de base de données de gestion de la configuration (CMDB) comme [AWS Config](https://aws.amazon.com/config/) pour créer un inventaire de votre charge de travail et de sa configuration. 
+  Identifier et documenter le test comparatif pour vos métriques de performances s'il s'agit d'une charge de travail existante, en vous concentrant sur les goulots d'étranglement et les zones à améliorer. Les métriques de mise en réseau liées aux performances diffèrent par charge de travail en fonction des exigences métier et des caractéristiques de charge de travail. Pour commencer, il pourrait être important d'examiner ces métriques pour votre charge de travail : bande passante, latence, perte de paquets, instabilité et retransmissions. 
+  S'il s'agit d'une nouvelle charge de travail, réaliser [des tests de charge](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) pour identifier les goulots d'étranglement au niveau des performances. 
+  Concernant l'identification des goulots d'étranglement au niveau des performances, examiner les options de configuration pour les solutions afin d'identifier les opportunités d'amélioration des performances. Découvrez les principales options et fonctionnalités de mise en réseau suivantes :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_networking_evaluate_networking_features.html)

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Amazon EBS – Instances optimisées ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html)
+ [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html)
+ [Mise en réseau améliorée d'EC2 sous Linux ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html)
+ [Capacité réseau améliorée d'EC2 sous Windows ](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html)
+ [Groupes de placement EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [Activation de la mise en réseau améliorée avec un adaptateur réseau élastique (ENA) sur les instances de Linux ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html)
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)
+ [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/)
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)
+ [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html)
+ [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/privatelink/concepts.html)
+ [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)

 **Vidéos connexes :** 
+ [Connectivity to AWS and hybrid AWS network architectures](https://www.youtube.com/watch?v=eqW6CPb58gs)
+ [Optimizing Network Performance for Amazon EC2 Instances](https://www.youtube.com/watch?v=DWiwuYtIgu0)
+ [AWS Global Accelerator](https://www.youtube.com/watch?v=Docl4julOQw)

 **Exemples connexes :** 
+ [AWS Transit Gateway et solutions de sécurité évolutives ](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions)
+ [Ateliers sur la mise en réseau AWS](https://catalog.workshops.aws/networking/en-US)

# PERF04-BP03 Choix d'une connectivité dédiée ou d'un VPN approprié pour votre charge de travail
<a name="perf_networking_choose_appropriate_dedicated_connectivity_or_vpn"></a>

 Lorsque la connectivité hybride est requise pour connecter des ressources sur site et dans le cloud, allouez une bande passante adéquate pour répondre à vos exigences de performance. Estimez les exigences en matière de bande passante et de latence pour votre charge de travail hybride. Ces chiffres détermineront vos exigences en matière de dimensionnement. 

 **Anti-modèles courants :** 
+  Vous n'évaluez les solutions VPN que pour les exigences de chiffrement de votre réseau. 
+  Vous n'évaluez pas les options de sauvegarde ni de connectivité redondante. 
+  Vous n'identifiez pas toutes les exigences de la charge de travail (chiffrement, protocole, bande passante et trafic requis). 

 **Avantages liés au respect de cette bonne pratique :** La sélection et la configuration de solutions de connectivité appropriées renforcent la fiabilité de votre charge de travail et optimisent les performances. En identifiant les exigences de la charge de travail, en effectuant une planification appropriée et en évaluant les solutions hybrides, vous pouvez minimiser les modifications coûteuses du réseau physique et les frais généraux opérationnels tout en accélérant le délai de rentabilisation. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Développez une architecture de mise en réseau hybride basée sur vos besoins en bande passante. [Direct Connect](https://aws.amazon.com/directconnect/) vous permet de connecter votre réseau sur site en privé à AWS. Cette solution convient lorsque vous avez besoin d'une bande passante élevée et d'une faible latence tout en conservant des performances constantes. Une connexion VPN établit une connexion sécurisée sur Internet. Elle sert uniquement lorsque seule une connexion temporaire est requise, lorsque le coût est un facteur, ou en cas d'urgence en attendant qu'une connectivité réseau physique résiliente soit établie lors de l'utilisation d'Direct Connect. 

 Si vos besoins en bande passante sont élevés, vous pouvez envisager divers services Direct Connect ou VPN. Le trafic peut être équilibré entre les services, mais nous ne recommandons pas l'équilibrage de charge entre Direct Connect et le VPN en raison des différences de latence et de bande passante. 

### Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Évaluez les besoins en bande passante et en latence de vos applications existantes. 

   1.  Pour les charges de travail existantes qui migrent vers AWS, exploitez les données de vos systèmes internes de surveillance du réseau. 

   1.  Pour les nouvelles charges de travail ou pour les charges de travail existantes pour lesquelles vous ne disposez pas de données de suivi, contactez les propriétaires du produit pour obtenir des métriques de performance adéquates et offrir une bonne expérience utilisateur. 

1.  Sélectionnez une connexion dédiée ou un VPN comme option de connectivité. En fonction de toutes les exigences de la charge de travail (chiffrement, bande passante et trafic requis), vous pouvez choisir AWS Direct Connect ou [Site-to-Site VPN](https://aws.amazon.com/vpn/) (ou les deux). Le schéma suivant peut vous aider à choisir le type de connexion approprié. 

   1.  [AWS Direct Connect](https://aws.amazon.com/directconnect/) fournit une connectivité dédiée à l'environnement AWS, de 50 Mbit/s à 100 Gbit/s, en utilisant des connexions dédiées ou des connexions hébergées. Cela vous permet de gérer et de contrôler la latence et de profiter d'une bande passante provisionnée. Ainsi, vos charges de travail peuvent se connecter efficacement à d'autres environnements. Grâce aux partenaires AWS Direct Connect, vous bénéficiez d'une connectivité de bout en bout à partir de plusieurs environnements, ce qui vous permet de disposer d'un réseau étendu aux performances constantes. AWS offre une bande passante de connexion directe évolutive en utilisant soit le débit 100 Gbit/s natif, soit le protocole LAG (Link Aggregation Group), soit le protocole BGP ECMP (Equal-cost multipath). 

   1.  AWS [Site-to-Site VPN](https://aws.amazon.com/vpn/) fournit un service VPN géré prenant en charge le protocole de sécurité du protocole Internet (IPsec). Lorsqu'une connexion VPN est créée, chaque connexion VPN comprend deux tunnels pour une haute disponibilité. 

1.  Consultez la documentation AWS pour choisir l'option de connectivité appropriée : 

   1.  Si vous décidez d'utiliser Direct Connect, sélectionnez la bande passante adaptée à votre connectivité. 

   1.  Si vous utilisez un AWS Site-to-Site VPN sur plusieurs emplacements pour vous connecter à une Région AWS, utilisez une [connexion Site-to-Site VPN accélérée](https://docs.aws.amazon.com/vpn/latest/s2svpn/accelerated-vpn.html) pour pouvoir améliorer les performances du réseau. 

   1.  Si la conception de votre réseau consiste en une connexion VPN IPsec via [AWS Direct Connect](https://aws.amazon.com/directconnect/), pensez à utiliser un VPN IP privé pour améliorer la sécurité et réaliser une segmentation. [Un VPN IP privé AWS Site-to-Site](https://aws.amazon.com/blogs/networking-and-content-delivery/introducing-aws-site-to-site-vpn-private-ip-vpns/) est déployé au-dessus de l'interface virtuelle de transport (VIF). 

   1.  [AWS Direct Connect SiteLink](https://aws.amazon.com/blogs/aws/new-site-to-site-connectivity-with-aws-direct-connect-sitelink/) permet de créer des connexions redondantes et à faible latence entre vos centres de données à travers le monde en envoyant les données sur le chemin le plus rapide entre [les emplacements AWS Direct Connect](https://aws.amazon.com/directconnect/locations/), en contournant les Régions AWS. 

1.  Validez votre configuration de connectivité avant le déploiement en production. Effectuez des tests de sécurité et de performance pour vous assurer qu'elle répond à vos exigences en matière de bande passante, de fiabilité, de latence et de conformité. 

1.  Surveillez régulièrement les performances et l'utilisation de votre connectivité et optimisez-les si nécessaire. 

![\[Organigramme décrivant les options à envisager pour déterminer si vous avez besoin de performances déterministes dans votre mise en réseau ou non.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/images/deterministic-networking-flowchart.png)


 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)
+ [ Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/)
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)
+ [ Transition vers le routage basé sur la latence dans Amazon Route 53 ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html)
+ [ Points de terminaison d'un VPC ](https://docs.aws.amazon.com/vpc/latest/privatelink/concepts.html)
+  [Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) 
+  [Création d'une infrastructure réseau AWS multi-VPC évolutive et sécurisée](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/welcome.html) 
+  [Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) 
+  [Client VPN](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/what-is.html) 

 **Vidéos connexes :** 
+ [ Connectivity to AWS and hybrid AWS network architectures ](https://www.youtube.com/watch?v=eqW6CPb58gs)
+ [ Optimizing Network Performance for Amazon EC2 Instances ](https://www.youtube.com/watch?v=DWiwuYtIgu0)
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 
+  [Direct Connect](https://www.youtube.com/watch?v=DXFooR95BYc&t=6s) 
+  [AWS Transit Gateway Connect](https://www.youtube.com/watch?v=_MPY_LHSKtM&t=491s) 
+  [Solutions VPN](https://www.youtube.com/watch?v=qmKkbuS9gRs) 
+  [Sécurité avec les solutions VPN](https://www.youtube.com/watch?v=FrhVV9nG4UM) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF04-BP04 Utilisation de l'équilibrage de charge pour répartir le trafic entre plusieurs ressources
<a name="perf_networking_load_balancing_distribute_traffic"></a>

 Répartissez le trafic sur plusieurs ressources ou services pour permettre à votre charge de travail de tirer parti de l'élasticité fournie par le cloud. Vous pouvez également utiliser l'équilibrage de charge afin de décharger la terminaison du chiffrement en vue d'améliorer les performances, d'assurer la fiabilité et de gérer et acheminer efficacement le trafic. 

 **Anti-modèles courants :** 
+  Vous ne tenez pas compte des exigences de votre charge de travail lorsque vous choisissez le type d'équilibreur de charge. 
+  Vous ne tirez pas parti des fonctions d'équilibrage de charge pour optimiser les performances. 
+  La charge de travail est exposée directement à Internet sans équilibreur de charge. 
+  Vous acheminez tout le trafic Internet via des équilibreurs de charge existants. 
+  Vous utilisez l'équilibrage de charge TCP générique et faites en sorte que chaque nœud de calcul gère le chiffrement SSL. 

 **Avantages liés au respect de cette bonne pratique :** Un équilibreur de charge gère la charge variable du trafic de votre application dans une seule zone de disponibilité ou entre plusieurs zones de disponibilité et permet une haute disponibilité, une mise à l'échelle automatique et une meilleure utilisation de votre charge de travail. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les équilibreurs de charge constituent le point d'entrée de votre charge de travail, à partir duquel ils distribuent le trafic vers vos cibles principales, telles que les instances de calcul ou les conteneurs, afin d'améliorer l'utilisation. 

 Le choix du bon type d'équilibreur de charge est la première étape de l'optimisation de votre architecture. Commencez par énumérer les caractéristiques de votre charge de travail, telles que le protocole (TCP, HTTP, TLS ou WebSockets), le type de cible (instances, conteneurs ou sans serveur), les exigences de l'application (connexions de longue durée, authentification de l'utilisateur ou permanence) et le placement (région, zone locale, Outpost ou isolement de zone). 

 AWS fournit plusieurs modèles permettant à vos applications d'utiliser l'équilibrage de charge. [L'Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) est davantage adapté à l'équilibrage de charge du trafic HTTP et HTTPS et fournit un routage avancé des requêtes, axé sur la diffusion d'architectures d'application modernes, notamment de microservices et de conteneurs. 

 [Le Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) est tout indiqué pour l'équilibrage de charge du trafic TCP, qui nécessite des performances extrêmes. Il est capable de traiter des millions de requêtes par seconde tout en maintenant de très faibles latences. Il est optimisé pour gérer les tendances soudaines et instables du trafic. 

 [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) assure la gestion intégrée des certificats et le déchiffrement SSL/TLS, ce qui vous permet de gérer de façon centralisée les paramètres SSL de l'équilibreur de charge et de décharger les tâches gourmandes en CPU de votre charge de travail. 

 Après avoir choisi le bon équilibreur de charge, vous pouvez commencer à tirer parti de ses fonctionnalités pour réduire les efforts que votre système backend doit fournir pour servir le trafic. 

 Par exemple, en utilisant à la fois Application Load Balancer (ALB) et Network Load Balancer (NLB), vous pouvez effectuer un déchargement du chiffrement SSL/TLS. Cela permet d'éviter que la liaison TLS, très gourmande en ressources CPU, ne soit effectuée par vos cibles, et permet également d'améliorer la gestion des certificats. 

 Lorsque vous configurez le déchargement SSL/TLS dans votre équilibreur de charge, celui-ci se charge du chiffrement du trafic en provenance et à destination des clients, tout en acheminant le trafic non chiffré vers vos systèmes backend. Cela libère vos ressources backend et améliore le temps de réponse pour les clients. 

 Application Load Balancer peut également servir le trafic HTTP/2 sans avoir besoin de le prendre en charge sur vos cibles. Cette simple décision peut améliorer le temps de réponse de votre application, car HTTP/2 utilise plus efficacement les connexions TCP. 

 Les exigences de latence de votre charge de travail doivent être prises en compte lors de la définition de l'architecture. Par exemple, si vous avez une application sensible à la latence, vous pouvez décider d'utiliser Network Load Balancer, qui offre des latences extrêmement faibles. Vous pouvez également décider de rapprocher votre charge de travail de vos clients en tirant parti d'Application Load Balancer dans [les zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) ou même [AWS Outposts](https://aws.amazon.com/outposts/rack/). 

 L'équilibrage de charge entre zones est un autre élément à prendre en compte pour les charges de travail sensibles à la latence. Avec l'équilibrage de charge inter-zone, chaque nœud d'équilibreur de charge distribue le trafic sur les cibles enregistrées dans toutes les zones de disponibilité activées. 

 Intégrez Auto Scaling à votre équilibreur de charge. L'un des aspects essentiels d'un système performant est le dimensionnement adéquat de vos ressources backend. Pour ce faire, vous pouvez tirer parti des intégrations d'équilibreurs de charge pour les ressources cibles du système backend. Grâce à l'intégration de l'équilibreur de charge avec les groupes Auto Scaling, les cibles seront ajoutées ou retirées de l'équilibreur de charge selon les besoins en fonction du trafic entrant. Les équilibreurs de charge peuvent également s'intégrer à [Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html) et [Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) pour les charges de travail conteneurisées. 
+  [Amazon ECS : équilibrage de charge des services](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html) 
+  [Équilibrage de charge d'application sur Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) 
+  [Équilibrage de la charge réseau sur Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Définissez vos exigences en matière d'équilibrage de charge, notamment en termes de volume de trafic, de disponibilité et de capacité de mise à l'échelle des applications. 
+  Choisissez le type d'équilibreur de charge adapté à votre application. 
  +  Utilisez Application Load Balancer pour les charges de travail HTTP/HTTPS. 
  +  Utilisez Network Load Balancer pour les charges de travail non HTTP qui fonctionnent sur TCP ou UDP. 
  +  Utilisez une combinaison des deux ([l'ALB en tant que cible du NLB](https://aws.amazon.com/blogs/networking-and-content-delivery/application-load-balancer-type-target-group-for-network-load-balancer/)) si vous souhaitez tirer parti des fonctionnalités des deux produits. Par exemple, vous pouvez le faire si vous voulez utiliser les IP statiques du NLB avec le routage basé sur l'en-tête HTTP de l'ALB, ou si vous voulez exposer votre charge de travail HTTP à un [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-share-your-services.html). 
  +  Pour une comparaison complète des équilibreurs de charge, voir [Comparaison des produits ELB](https://aws.amazon.com/elasticloadbalancing/features/). 
+  Utilisez le déchargement SSL/TLS si possible. 
  +  Configurez les écouteurs HTTPS/TLS avec [l'Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html) et [le Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-tls-listener.html) intégrés à [AWS Certificate Manager](https://aws.amazon.com/certificate-manager/). 
  +  Notez que certaines charges de travail peuvent nécessiter un chiffrement de bout en bout pour des raisons de conformité. Dans ce cas, il est nécessaire de permettre le chiffrement au niveau des cibles. 
  +  Pour les bonnes pratiques de sécurité utilisateur, voir [SEC09-BP02 Application du chiffrement en transit](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html). 
+  Sélectionnez le bon algorithme de routage (ALB uniquement). 
  +  L'algorithme de routage peut faire une réelle différence dans la manière d'utiliser vos cibles backend et donc dans leur impact sur les performances. Par exemple, l'ALB fournit [deux options pour les algorithmes de routage](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#modify-routing-algorithm) : 
  +  **Demandes les moins en attente :** permet d'obtenir une meilleure répartition de la charge sur vos cibles backend dans les cas où les requêtes de votre application varient en complexité ou vos cibles varient en capacité de traitement. 
  +  **Tourniquet :** utilisez cette méthode lorsque les requêtes et les cibles sont similaires, ou si vous devez distribuer les requêtes de manière égale entre les cibles. 
+  Envisagez un isolement inter-zone ou par zone. 
  +  Utilisez les zones croisées désactivées (isolement par zone) pour améliorer la latence et les domaines de panne par zone. Elles sont désactivées par défaut dans le NLB et, dans [l'ALB, vous pouvez les désactiver par groupe cible](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/disable-cross-zone.html). 
  +  Utilisez les zones croisées activées pour une disponibilité et une flexibilité accrues. Par défaut, les zones croisées sont activées pour l'ALB et, dans [le NLB, vous pouvez les activer par groupe cible](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/target-group-cross-zone.html). 
+  Activez l'option de persistance HTTP pour vos charges de travail HTTP (ALB uniquement). Grâce à cette fonction, l'équilibreur de charge peut réutiliser les connexions backend jusqu'à l'expiration du délai de persistance, ce qui améliore les temps de demande et de réponse HTTP et réduit également l'utilisation des ressources sur vos cibles backend. Pour plus de détails sur la procédure à suivre pour Apache et Nginx, voir [Quels sont les paramètres optimaux pour utiliser Apache ou NGINX en tant que serveur principal pour ELB ?](https://aws.amazon.com/premiumsupport/knowledge-center/apache-backend-elb/) 
+  Activez la surveillance pour votre équilibreur de charge. 
  +  Activez les journaux d'accès pour [l'Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-access-logging.html) et [le Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-access-logs.html). 
  +  Les principaux champs à prendre en compte pour l'ALB sont les suivants : `request_processing_time`, `request_processing_time`et `response_processing_time`. » 
  +  Les principaux champs à prendre en compte pour le NLB sont les suivants : `connection_time` et `tls_handshake_time`. » 
  +  Soyez prêt à interroger les journaux lorsque vous en aurez besoin. Vous pouvez utiliser Amazon Athena pour interroger à la fois [les journaux ALB](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) et [les journaux NLB](https://docs.aws.amazon.com/athena/latest/ug/networkloadbalancer-classic-logs.html). 
  +  Créez des alarmes pour les métriques liées aux performances, telles que [`TargetResponseTime` pour ALB](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-cloudwatch-metrics.html). 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Comparaison des produits ELB ](https://aws.amazon.com/elasticloadbalancing/features/) 
+  [Infrastructure mondiale AWS ](https://aws.amazon.com/about-aws/global-infrastructure/) 
+  [Amélioration des performances et réduction des coûts grâce à l'affinité des zones de disponibilité ](https://aws.amazon.com/blogs/architecture/improving-performance-and-reducing-cost-using-availability-zone-affinity/) 
+  [Procédure détaillée d'analyse des journaux avec Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/amazon-athena-for-elb) 
+  [Interroger les journaux Application Load Balancer](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) 
+  [Surveiller vos Application Load Balancers](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-monitoring.html) 
+  [Surveiller votre Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-monitoring.html) 
+  [Utiliser Elastic Load Balancing pour distribuer le trafic entre les instances de votre groupe Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/autoscaling-load-balancer.html) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2018: Elastic Load Balancing: Deep Dive and Best Practices](https://www.youtube.com/watch?v=VIgAT7vjol8) 
+  [AWS re:Invent 2021 - How to choose the right load balancer for your AWS workloads ](https://www.youtube.com/watch?v=p0YZBF03r5A) 
+  [AWS re:Inforce 2022 - How to use Elastic Load Balancing to enhance your security posture at scale](https://www.youtube.com/watch?v=YhNc5VSzOGQ) 
+  [AWS re:Invent 2019: Get the most from Elastic Load Balancing for different workloads](https://www.youtube.com/watch?v=HKh54BkaOK0) 

 **Exemples connexes :** 
+  [Exemples de CDK et de CloudFormation pour l'analyse des journaux avec Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/log-analysis-elb-cdk-cf-template) 

# PERF04-BP05 Choix de protocoles réseau afin d'améliorer les performances
<a name="perf_networking_choose_network_protocols_improve_performance"></a>

 Prenez des décisions concernant les protocoles de communication entre les systèmes et les réseaux en fonction de l'impact sur les performances de la charge de travail. 

 Il existe une relation entre la latence et la bande passante pour atteindre le débit. Si votre transfert de fichiers utilise le protocole de contrôle de transmission (TCP), des latences plus élevées réduiront très probablement le débit global. Il existe des approches pour résoudre ce problème avec le réglage du protocole TCP et les protocoles de transfert optimisés. Le protocole UDP (User Datagram Protocol) est une solution possible. 

 **Anti-modèles courants :** 
+  Vous utilisez TCP pour toutes les charges de travail, quelles que soient les exigences de performance. 

 **Avantages liés au respect de cette bonne pratique :** Vérifiez que vous utilisez un protocole approprié pour la communication entre les utilisateurs et les composants de la charge de travail, afin d'améliorer l'expérience globale des utilisateurs de vos applications. Par exemple, le protocole UDP sans connexion permet d'obtenir une vitesse élevée, mais sans retransmission ni fiabilité élevée. Quoique complet, le protocole TCP nécessite une surcharge plus importante pour le traitement des paquets. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Si vous avez la possibilité de choisir différents protocoles pour votre application et que vous possédez l'expertise nécessaire dans ce domaine, optimisez votre application et l'expérience de l'utilisateur final en utilisant un autre protocole. Notez que cette approche présente des difficultés importantes et ne doit être tentée que si vous avez d'abord optimisé votre application à d'autres égards. 

 Pour améliorer les performances de votre charge de travail, il est essentiel de comprendre les exigences en matière de latence et de débit, puis de choisir des protocoles réseau qui optimisent les performances. 

 **Quand envisager l'utilisation du protocole TCP** 

 Le protocole TCP assure une livraison fiable des données et peut être utilisé pour la communication entre les composants de la charge de travail où la fiabilité et la livraison garantie des données sont importantes. De nombreuses applications web reposent sur des protocoles basés sur le protocole TCP, tels que HTTP et HTTPS, pour ouvrir des sockets TCP pour la communication entre les composants de l'application. Les e-mails et le transfert de données de fichiers sont des applications courantes qui utilisent également le protocole TCP, car il s'agit d'un mécanisme de transfert simple et fiable entre les composants de l'application. L'utilisation de TLS avec TCP peut ajouter une certaine surcharge à la communication, ce qui peut entraîner une augmentation de la latence et une réduction du débit, mais elle présente l'avantage de la sécurité. La surcharge provient principalement de la charge supplémentaire du processus de liaison, qui peut prendre plusieurs allers-retours pour se terminer. Une fois la liaison établie, la charge de chiffrement et de déchiffrement des données devient relativement faible. 

 **Quand envisager l'utilisation du protocole UDP** 

 UDP est un protocole orienté sans connexion et convient donc aux applications qui nécessitent une transmission rapide et efficace, comme les données de journal, de surveillance et de VoIP. En outre, envisagez d'utiliser UDP si vous avez des composants de charge de travail qui répondent à de petites requêtes provenant d'un grand nombre de clients, afin de garantir des performances optimales de la charge de travail. Le protocole DTLS (Datagram Transport Layer Security) est l'équivalent UDP du protocole TLS (Transport Layer Security). Lors de l'utilisation de DTLS avec UDP, la charge provient du chiffrement et du déchiffrement des données, car le processus de liaison est simplifié. DTLS ajoute également une petite quantité de charge aux paquets UDP, car il inclut des champs supplémentaires pour indiquer les paramètres de sécurité et pour détecter la falsification. 

 **Quand envisager l'utilisation du protocole SRD** 

 Le protocole SRD (Scalable reliable datagram) est un protocole de transport en réseau optimisé pour les charges de travail à haut débit en raison de sa capacité à répartir le trafic sur plusieurs chemins et à se rétablir rapidement en cas de perte de paquets ou de défaillance d'un lien. Le SRD est donc le mieux adapté aux charges de travail du calcul haute performance (HPC) qui nécessitent un débit élevé et une communication à faible latence entre les nœuds de calcul. Il peut s'agir de tâches de traitement parallèle telles que la simulation, la modélisation et l'analyse de données qui impliquent un grand nombre de transferts de données entre les nœuds. 

### Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Utilisez les services [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) et [AWS Transfer Family](https://aws.amazon.com/aws-transfer-family/) pour améliorer le débit de vos applications de transfert de fichiers en ligne. Le service AWS Global Accelerator vous aide à réduire la latence entre vos appareils clients et votre charge de travail sur AWS. Avec AWS Transfer Family, vous pouvez utiliser des protocoles basés sur TCP tels que le protocole de transfert de fichiers Secure Shell (SFTP) et le protocole de transfert de fichiers sur SSL (FTPS) pour dimensionner et gérer en toute sécurité vos transferts de fichiers vers des services de stockage AWS. 

1.  Utilisez la latence du réseau pour déterminer si le protocole TCP est adapté à la communication entre les composants de la charge de travail. Si la latence du réseau entre votre application client et le serveur est élevée, la liaison tripartite TCP peut prendre un certain temps, ce qui a un impact sur la réactivité de votre application. Des métriques telles que le délai jusqu'au premier octet (TTFB) et le temps de propagation aller-retour (RTT) peuvent être utilisées pour mesurer la latence du réseau. Si votre charge de travail fournit du contenu dynamique aux utilisateurs, pensez à utiliser [Amazon CloudFront](https://aws.amazon.com/cloudfront/), qui établit une connexion persistante avec chaque origine pour le contenu dynamique afin d'éliminer le temps d'établissement de la connexion qui, autrement, ralentirait chaque demande du client. 

1.  L'utilisation de TLS avec TCP ou UDP peut entraîner une augmentation de la latence et une réduction du débit de votre charge de travail en raison de l'impact du chiffrement et du déchiffrement. Pour de telles charges de travail, envisagez d'activer le déchargement SSL/TLS sur [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) pour améliorer les performances de la charge de travail en permettant à l'équilibreur de charge de gérer les processus de chiffrement et de déchiffrement SSL/TLS au lieu de laisser les instances backend s'en charger. Cela peut contribuer à réduire l'utilisation du CPU sur les instances backend, ce qui peut améliorer les performances et augmenter la capacité. 

1.  Utilisez le [Network Load Balancer (NLB)](https://aws.amazon.com/elasticloadbalancing/network-load-balancer/) pour déployer des services qui reposent sur le protocole UDP, tels que l'authentification et l'autorisation, la journalisation, le DNS, l'IoT et le streaming média, afin d'améliorer les performances et la fiabilité de votre charge de travail. Le NLB distribue le trafic UDP entrant sur plusieurs cibles, ce qui vous permet de faire évoluer votre charge de travail horizontalement, d'augmenter la capacité et de réduire les frais généraux associés à une seule cible. 

1.  Pour vos charges de travail liées au calcul haute performance (HPC), pensez à utiliser la fonctionnalité [Elastic Network Adapter (ENA) Express](https://aws.amazon.com/about-aws/whats-new/2022/11/elastic-network-adapter-ena-express-amazon-ec2-instances/) qui utilise le protocole SRD pour améliorer les performances du réseau en fournissant une bande passante à flux unique plus élevée (25 Gbit/s) et une latence de queue plus faible (99,9 centile) pour le trafic réseau entre les instances EC2. 

1.  Utilisez l' [Application Load Balancer (ALB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) pour router et répartir votre trafic gRPC (Remote Procedure Calls) entre les composants de la charge de travail ou entre les clients et les services gRPC. gRPC utilise le protocole HTTP/2 basé sur TCP pour le transport et offre des avantages en termes de performances, tels qu'une empreinte réseau plus légère, la compression, une sérialisation binaire efficace, la prise en charge de nombreux langages et le streaming bidirectionnel. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Amazon EBS – Instances optimisées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec un adaptateur réseau élastique (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances](https://www.youtube.com/watch?v=DWiwuYtIgu0) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF04-BP06 Choix du placement de votre charge de travail en fonction des exigences réseau
<a name="perf_networking_choose_workload_location_network_requirements"></a>

Évaluez les options de placement des ressources afin de réduire la latence du réseau et d'améliorer le débit, offrant ainsi une expérience utilisateur optimale en réduisant les temps de chargement des pages et de transfert des données.

 **Anti-modèles courants :** 
+  Vous regroupez toutes les ressources de charge de travail dans un seul emplacement géographique. 
+  Vous avez choisi la région la plus proche de votre emplacement, pas celle de l'utilisateur final de la charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** L'expérience utilisateur est fortement affectée par le temps de latence entre l'utilisateur et votre application. En utilisant les Régions AWS appropriées et le réseau mondial AWS privé, vous pouvez réduire le temps de latence et offrir une meilleure expérience aux utilisateurs distants. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les ressources, telles que les instances Amazon EC2, sont placées dans des zones de disponibilité dans les [Régions AWS](https://aws.amazon.com/about-aws/global-infrastructure/regions_az/), [les zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/), [AWS Outposts](https://aws.amazon.com/outposts/)ou [les zones AWS Wavelength](https://aws.amazon.com/wavelength/) . Le choix de cet emplacement influence la latence et le débit du réseau à partir d'un emplacement donné de l'utilisateur. Les services périphériques comme [Amazon CloudFront](https://aws.amazon.com/cloudfront/) et [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) peuvent également améliorer les performances du réseau, soit par la mise en cache du contenu aux emplacements périphériques, soit en fournissant aux utilisateurs un chemin optimal vers la charge de travail à travers le réseau global AWS. 

 Amazon EC2 fournit des groupes de placement pour la mise en réseau. Un groupe de placement est un regroupement logique d'instances permettant de réduire la latence. L'utilisation de groupes de placement avec des types d'instance pris en charge et un adaptateur réseau élastique (ENA) permet aux charges de travail de participer à un réseau 25 Gbit/s à faible latence avec une instabilité réduite. Les groupes de placement sont recommandés pour les charges de travail nécessitant une latence réseau faible, un débit réseau élevé, ou les deux. 

 Les services sensibles à la latence sont fournis sur des emplacements périphériques via le réseau mondial AWS, comme [Amazon CloudFront](https://aws.amazon.com/cloudfront/). Ces emplacements périphériques fournissent généralement des services tels que les réseaux de diffusion de contenu (CDN) et les systèmes de noms de domaine (DNS). Placer ces services en périphérie permet aux charges de travail de répondre avec une faible latence aux requêtes de contenu ou de résolution DNS. Ces services fournissent également des services géographiques tels que le ciblage géographique du contenu (qui fournit des contenus différents en fonction de l'emplacement des utilisateurs finaux) ou le routage en fonction de la latence pour diriger les utilisateurs finaux vers la région plus proche (latence minimum). 

 Utilisez des services en périphérie pour réduire la latence et permettre la mise en cache de contenu. Configurez correctement le contrôle du cache pour les services DNS et HTTP/HTTPS afin de tirer le plus grand bénéfice de ces approches. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Capturez des informations sur le trafic IP entrant et sortant des interfaces réseau. 
  + [ Enregistrement du trafic IP à l'aide des journaux de flux VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)
  + [ Comment l'adresse IP du client est-elle préservée dans AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/preserve-client-ip-address.headers.html)
+  Analysez les modèles d'accès au réseau dans votre charge de travail afin d'identifier comment les utilisateurs utilisent votre application. 
  +  Utilisez des outils de surveillance, comme [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) et [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), pour recueillir des données sur les activités du réseau. 
  +  Analysez les données pour identifier le modèle d'accès au réseau. 
+  Choisissez les régions pour le déploiement de votre charge de travail en fonction des éléments clés suivants : 
  +  **Emplacement de vos données :** pour les applications utilisant de grandes quantités de données (telles que le big data et le machine learning). Le code de l'application doit s'exécuter aussi près que possible des données. 
  +  **Emplacement de vos utilisateurs** : pour les applications orientées utilisateur, choisissez une région ou des régions proches des utilisateurs de votre charge de travail. 
  +  **Autres contraintes** : tenez compte de contraintes telles que le coût et la conformité comme indiqué dans [Éléments à prendre en compte lors de la sélection d'une région pour vos charges de travail.](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/)
+  Utilisez [les zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) pour exécuter des charges de travail telles que le rendu vidéo. Ces zones locales vous permettent de profiter des avantages liés à la présence de ressources de calcul et de stockage plus proches des utilisateurs finaux. 
+  Utilisez [AWS Outposts](https://aws.amazon.com/outposts/) pour les charges de travail qui doivent rester sur site et dont vous souhaitez qu'elles fonctionnent de manière transparente avec le reste de vos charges de travail dans AWS. 
+  Les applications telles que le streaming vidéo en direct à haute résolution, l'audio haute fidélité et la réalité augmentée ou virtuelle (RA/RV) exigent une latence ultra-faible pour les appareils 5G. Pour de telles applications, envisagez d'utiliser [AWS Wavelength](https://aws.amazon.com/wavelength/). AWS Wavelength intègre les services de calcul et de stockage AWS aux réseaux 5G, tout en offrant une infrastructure de calcul périphérique mobile pour le développement, le déploiement et la mise à l'échelle des applications avec une latence ultra-faible. 
+  Utilisez la mise en cache locale ou des [solutions de mise en cache AWS](https://aws.amazon.com/caching/aws-caching/) pour les ressources fréquemment utilisées afin d'améliorer les performances, de limiter les mouvements de données et de réduire l'impact sur l'environnement.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_networking_choose_workload_location_network_requirements.html)
+  Utilisez des services capables de vous aider à exécuter le code plus près des utilisateurs de votre charge de travail, tels que les suivants :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_networking_choose_workload_location_network_requirements.html)
+  Certaines applications nécessitent des points d'entrée fixes ou des performances plus élevées en réduisant la latence et l'instabilité du premier octet et en augmentant le débit. Ces applications peuvent bénéficier de services réseau qui fournissent des adresses IP statiques anycast et une terminaison TCP aux emplacements périphériques. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) peut améliorer les performances de vos applications jusqu'à 60 % et assurer un basculement rapide pour les architectures multirégionales. AWS Global Accelerator vous fournit des adresses IP statiques anycast qui servent de point d'entrée fixe à vos applications hébergées dans une ou plusieurs Régions AWS. Ces adresses IP permettent au trafic d'entrer sur le réseau global AWS aussi près que possible de vos utilisateurs. AWS Global Accelerator réduit le temps d'établissement de la connexion initiale en établissant une connexion TCP entre le client et l'emplacement périphérique AWS le plus proche du client. Examinez l'utilisation de AWS Global Accelerator pour améliorer les performances de vos charges de travail TCP/UDP et fournir un basculement rapide pour les architectures multirégionales. 

## Ressources
<a name="resources"></a>

 **Bonnes pratiques associées :** 
+ [ COST07-BP02 Mise en œuvre de régions en fonction des coûts ](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_pricing_model_region_cost.html)
+ [ COST08-BP03 Mise en œuvre de services pour réduire les coûts de transfert de données ](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_data_transfer_implement_services.html)
+ [ REL10-BP01 Déploiement de la charge de travail sur plusieurs emplacements ](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_multiaz_region_system.html)
+ [ REL10-BP02 Sélection des emplacements appropriés pour votre déploiement multisite ](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_select_location.html)
+ [ SUS01-BP01 Choix d'une région en fonction des exigences et des objectifs de durabilité de l'entreprise ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_region_a2.html)
+ [ SUS02-BP04 Optimisation du placement géographique des charges de travail en fonction de leurs exigences réseau ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_user_a5.html)
+ [ SUS04-BP07 Réduction du mouvement des données entre les réseaux ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_data_a8.html)

 **Documents connexes :** 
+ [ Infrastructure mondiale AWS](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [ Zones locales AWS et AWS Outposts, choisir la bonne technologie pour votre charge de travail périphérique ](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [ Groupes de placement ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [ les zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)
+ [AWS Wavelength](https://aws.amazon.com/wavelength/)
+ [ Amazon CloudFront ](https://aws.amazon.com/cloudfront/)
+ [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/)
+ [AWS Direct Connect](https://aws.amazon.com/directconnect/)
+ [AWS Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/)
+ [ Amazon Route 53 ](https://aws.amazon.com/route53/)

 **Vidéos connexes :** 
+ [AWS Local Zones Explainer Video ](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Overview and How it Works ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2021 - AWS Outposts: Bringing the AWS experience on premises ](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020: AWS Wavelength: Run apps with ultra-low latency at 5G edge ](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 - AWS Local Zones: Building applications for a distributed edge ](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 - Building low-latency websites with Amazon CloudFront ](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 - Improve performance and availability with AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 - Build your global wide area network using AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: Global traffic management with Amazon Route 53 ](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Exemples connexes :** 
+ [ Atelier AWS Global Accelerator](https://catalog.us-east-1.prod.workshops.aws/workshops/effb1517-b193-4c59-8da5-ce2abdb0b656/en-US)
+ [ Gestion des réécritures et des redirections à l'aide des fonctions de périphérie ](https://catalog.us-east-1.prod.workshops.aws/workshops/814dcdac-c2ad-4386-98d5-27d37bb77766/en-US)

# PERF04-BP07 Optimisation de la configuration réseau en fonction de métriques
<a name="perf_networking_optimize_network_configuration_based_on_metrics"></a>

 Utilisez les données collectées et analysées pour prendre des décisions avisées concernant l'optimisation de votre configuration réseau. 

 **Anti-modèles courants :** 
+  Vous supposez que tous les problèmes liés aux performances sont liés à l'application. 
+  Vous testez uniquement les performances de votre réseau à partir d'un emplacement proche de l'endroit où vous avez déployé la charge de travail. 
+  Vous utilisez des configurations par défaut pour tous les services du réseau. 
+  Vous surdimensionnez la ressource réseau afin de fournir une capacité suffisante. 

 **Avantages liés au respect de cette bonne pratique :** La collecte des métriques nécessaires de votre réseau AWS et la mise en œuvre d'outils de surveillance du réseau vous permettent de comprendre les performances du réseau et d'optimiser les configurations du réseau. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 La surveillance du trafic en provenance et à destination des VPC, des sous-réseaux ou des interfaces réseau est essentielle pour comprendre comment utiliser les ressources réseau AWS et comment optimiser les configurations réseau. Les outils de mise en réseau AWS suivants vous permettent d'obtenir des informations supplémentaires sur l'utilisation du trafic, l'accès au réseau et les journaux. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Identifiez les indicateurs clés de performance tels que la latence ou la perte de paquets à collecter. AWS fournit plusieurs outils qui peuvent vous aider à collecter ces métriques. Les outils suivants vous permettent d'obtenir des informations supplémentaires sur l'utilisation du trafic, l'accès au réseau et les journaux.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_networking_optimize_network_configuration_based_on_metrics.html)
+  Identifiez les principaux intervenants et les modèles de trafic des applications à l'aide des journaux de flux VPC et AWS Transit Gateway. 
+  Évaluez et optimisez votre architecture réseau actuelle, y compris les VPC, les sous-réseaux et le routage. À titre d'exemple, vous pouvez évaluer l'impact de l'appairage de VPC ou d'AWS Transit Gateway sur l'amélioration de la mise en réseau de votre architecture. 
+  Évaluez les chemins de routage de votre réseau pour vérifier que le chemin le plus court entre les destinations est toujours utilisé. Network Access Analyzer peut vous aider à le faire. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Journalisation des requêtes DNS publiques](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html) 
+  [Qu'est-ce qu'IPAM ?](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html) 
+  [Qu'est-ce que Reachability Analyzer ?](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html) 
+  [Qu'est-ce que Network Access Analyzer ?](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html) 
+  [Métriques CloudWatch pour vos VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-cloudwatch.html) 
+  [Optimiser les performances et réduire les coûts analytiques des réseaux grâce aux journaux de flux VPC au format Apache Parquet ](https://aws.amazon.com/blogs/big-data/optimize-performance-and-reduce-costs-for-network-analytics-with-vpc-flow-logs-in-apache-parquet-format/) 
+  [Surveillance de vos réseaux mondiaux et principaux avec les métriques Amazon CloudWatch](https://docs.aws.amazon.com/vpc/latest/tgwnm/monitoring-cloudwatch-metrics.html) 
+  [Surveiller en permanence le trafic et les ressources du réseau](https://docs.aws.amazon.com/whitepapers/latest/security-best-practices-for-manufacturing-ot/continuously-monitor-network-traffic-and-resources.html) 

 **Vidéos connexes :** 
+  [Networking best practices and tips with the AWS Well-Architected Framework ](https://www.youtube.com/watch?v=wOMNpG49BeM) 
+  [Monitoring and troubleshooting network traffic ](https://www.youtube.com/watch?v=Ed09ReWRQXc) 

 **Exemples connexes :** 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 
+  [Surveillance réseau AWS](https://github.com/aws-samples/monitor-vpc-network-patterns) 

# Processus et culture
<a name="a-process-culture"></a>

# PERF 5. Comment vos pratiques et votre culture organisationnelles contribuent-elles à l'efficacité des performances dans le cadre de votre charge de travail ?
<a name="perf-05"></a>

 Lors de la création de l'architecture des charges de travail, vous pouvez adopter certains principes et certaines pratiques pour optimiser l'exécution de charges de travail cloud efficaces et performantes. Pour adopter une culture qui favorise l'efficacité des performances des charges de travail dans le cloud, tenez compte des principes et pratiques clés suivants : 

**Topics**
+ [PERF05-BP01 Définir des indicateurs clés de performance (KPI) pour mesurer l'état et les performances de la charge de travail](perf_process_culture_establish_key_performance_indicators.md)
+ [PERF05-BP02 Utiliser des solutions de surveillance pour comprendre les domaines où les performances sont d'une importance critique](perf_process_culture_use_monitoring_solutions.md)
+ [PERF05-BP03 Définir un processus pour améliorer les performances des charges de travail](perf_process_culture_workload_performance.md)
+ [PERF05-BP04 Effectuer un test de charge de votre charge de travail](perf_process_culture_load_test.md)
+ [PERF05-BP05 Utiliser l'automatisation pour résoudre de manière proactive les problèmes liés aux performances](perf_process_culture_automation_remediate_issues.md)
+ [PERF05-BP06 Maintenir votre charge de travail et vos services à jour](perf_process_culture_keep_workload_and_services_up_to_date.md)
+ [PERF05-BP07 Vérifier les métriques à intervalles réguliers](perf_process_culture_review_metrics.md)

# PERF05-BP01 Définir des indicateurs clés de performance (KPI) pour mesurer l'état et les performances de la charge de travail
<a name="perf_process_culture_establish_key_performance_indicators"></a>

 Identifiez les KPI qui mesurent les performances de la charge de travail de manière quantitative et qualitative. Les KPI vous aident à mesurer l'état et les performances d'une charge de travail par rapport à un objectif métier. 

 **Anti-modèles courants :** 
+  Vous surveillez uniquement les métriques au niveau du système pour avoir un aperçu de votre charge de travail et ne comprenez pas les impacts commerciaux possibles. 
+  Vous supposez que vos KPI sont déjà publiés et partagés en tant que données de métriques standard. 
+  Vous ne définissez pas de KPI quantitatif et mesurable. 
+  Vous ne tenez pas compte des objectifs ni des stratégies de l'entreprise pour définir vos KPI. 

 **Avantages liés au respect de cette bonne pratique :** En identifiant les KPI spécifiques qui représentent l'état et les performances de la charge de travail, vous pouvez aligner les équipes sur leurs priorités et définir des résultats commerciaux atteignables. Le partage de ces métriques avec tous les départements offre une visibilité et un alignement sur les seuils, les attentes et l'impact commercial. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les KPI permettent aux équipes commerciales et d'ingénierie de s'aligner sur la mesure des objectifs et des stratégies et sur la façon dont ces facteurs se combinent pour générer des résultats commerciaux. Par exemple, une charge de travail de site Web peut utiliser le temps de chargement de la page comme indication des performances globales. Cette métrique serait l'un des éléments de données pris en compte qui mesure l'expérience d'un utilisateur. En plus d'identifier les temps limites de chargement des pages, vous devez documenter le résultat attendu ou le risque commercial si les performances idéales ne sont pas atteintes. Un temps de chargement long des pages affecte directement vos utilisateurs finaux, nuit à leur expérience utilisateur et peut entraîner une perte de clients. Lorsque vous définissez vos seuils de KPI, combinez à la fois les points de référence en vigueur dans votre secteur et les attentes de vos utilisateurs finaux. Par exemple, si le point de référence actuel établi par votre secteur d'activité pour le chargement d'une page Web est un délai de deux secondes, mais que vos utilisateurs finaux s'attendent à ce qu'une page Web se charge dans un délai d'une seconde, vous devez prendre en compte ces deux éléments de données lors de la définition des KPI. 

 Votre équipe doit évaluer les KPI de votre charge de travail à l'aide de données précises en temps réel et de données historiques à titre de référence et créer des tableaux de bord qui effectuent des calculs de métriques par rapport à vos données de KPI pour générer des informations opérationnelles et d'utilisation. Les KPI doivent être documentés et inclure les seuils qui soutiennent les objectifs et les stratégies de l'entreprise et doivent être mappés aux métriques surveillées. Les KPI doivent être revus lorsque les objectifs commerciaux, les stratégies ou les exigences des utilisateurs finaux changent.   

## Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Identifiez et documentez les principales parties prenantes de l'entreprise. 

1.  Collaborez avec ces parties prenantes pour définir et documenter les objectifs de votre charge de travail. 

1.  Passez en revue les bonnes pratiques du secteur pour identifier les KPI pertinents qui correspondent à vos objectifs en matière de charge de travail. 

1.  Utilisez les bonnes pratiques du secteur et vos objectifs de charge de travail pour définir des cibles pour votre KPI de charge de travail. Utilisez ces informations pour définir les seuils de KPI pour les niveaux de gravité ou d'alarme. 

1.  Identifiez et documentez le risque et l'impact si le KPI n'est pas atteint. 

1.  Identifiez et documentez les métriques qui peuvent vous aider à établir les KPI. 

1.  Utilisez des outils de surveillance, comme [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) ou [AWS Config](https://aws.amazon.com/config/) pour collecter des métriques et mesurer des KPI. 

1.  Utilisez des tableaux de bord pour visualiser et communiquer les KPI aux parties prenantes. 

1.  Passez en revue et analysez régulièrement les métriques pour identifier les domaines de charge de travail qui doivent être améliorés. 

1.  Revoyez les KPI lorsque les objectifs métier ou les performances de la charge de travail changent. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Documentation CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Surveillance, journalisation et performances AWS Partner](https://aws.amazon.com/devops/partner-solutions/#_Monitoring.2C_Logging.2C_and_Performance) 
+  [Documentation X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Fonctionnement des tableaux de bord Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html?ref=wellarchitected) 
+  [KPI Quick](https://docs.aws.amazon.com/quicksight/latest/user/kpi.html) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2019 : passez à vos 10 premiers millions d'utilisateurs](https://www.youtube.com/watch?v=kKjm4ehYiMs&ref=wellarchitected) 
+  [Mettez fin au chaos : gagnez en visibilité et en informations opérationnelles](https://www.youtube.com/watch?v=nLYGbotqHd0&ref=wellarchitected) 
+  [Build a Monitoring Plan](https://www.youtube.com/watch?v=OMmiGETJpfU&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Création d'un tableau de bord avec Quick](https://github.com/aws-samples/amazon-quicksight-sdk-proserve) 

# PERF05-BP02 Utiliser des solutions de surveillance pour comprendre les domaines où les performances sont d'une importance critique
<a name="perf_process_culture_use_monitoring_solutions"></a>

 Comprenez et identifiez les domaines où l'augmentation des performances de votre charge de travail aura un impact positif sur l'efficacité ou l'expérience client. Par exemple, un site Web qui comporte un grand nombre d'interactions clients pourrait gagner à utiliser des services de périphérie pour rapprocher la diffusion de contenus des clients. 

 **Anti-modèles courants :** 
+  Vous supposez que les métriques de calcul standard telles que l'utilisation du processeur ou la pression de mémoire, suffisent pour détecter les problèmes de performances. 
+  Vous n'utilisez que les métriques par défaut enregistrées par le logiciel de surveillance que vous avez sélectionné. 
+  Vous n'examinez les métriques qu'en cas de problème. 

 **Avantages liés au respect de cette bonne pratique :** la compréhension des domaines critiques de performances aide les propriétaires des charges de travail à surveiller les KPI et à prioriser les améliorations à impact élevé. 

 **Niveau d'exposition au risque si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Mettez en place un suivi de bout en bout afin d'identifier les tendances du trafic, la latence et les domaines de performances critiques. Surveillez vos modèles d'accès aux données afin d'identifier les requêtes lentes ou les données mal fragmentées et partitionnées. Identifiez les zones de charge de travail limitées à l'aide de tests ou de surveillance des charges. 

 améliorer l'efficacité des performances en comprenant votre architecture, vos modèles de trafic et d'accès aux données, et identifier vos temps de latence et de traitement. Identifier les goulots d'étranglement potentiels qui pourraient avoir une incidence sur l'expérience client à mesure que la charge de travail augmente. Après avoir enquêté sur ces domaines, déterminez quelle solution vous pouvez déployer afin de surmonter ces problèmes de performances. 

### Étapes d'implémentation
<a name="implementation-steps"></a>

1.  Mettez en place une surveillance de bout en bout pour capturer tous les composants et métriques de la charge de travail. Voici des exemples de solutions de surveillance sur AWS.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-10-03/framework/perf_process_culture_use_monitoring_solutions.html)

1.  Effectuez des tests afin de générer des métriques, d'identifier les tendances de trafic, les goulots d'étranglement et les domaines de performance critiques. Voici quelques exemples de méthodes de test : 
   +  Configurez [des tests canary synthétiques CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) pour imiter par programmation les activités des utilisateurs basées sur le navigateur à l'aide de tâches cron Linux ou d'expressions de taux afin de générer des métriques cohérentes au fil du temps. 
   +  Utilisez l' [Test de charge distribuée sur AWS](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) afin de générer un trafic de pointe ou de tester la charge de travail au taux de croissance attendu. 

1.  Évaluez les métriques et la télémétrie pour identifier vos domaines de performances critiques. Examinez ces domaines avec votre équipe afin de discuter de la surveillance et des solutions pour éviter les goulots d'étranglement. 

1.  Expérimentez des améliorations des performances et mesurez ces changements avec des données. À titre d'exemple, vous pouvez utiliser [CloudWatch Evidently](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Evidently.html) afin de tester les nouvelles améliorations et les impacts sur votre charge de travail. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Bibliothèque Amazon Builders' Library](https://aws.amazon.com/builders-library) 
+  [Documentation X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon DevOps Guru](https://aws.amazon.com/devops-guru/) 

 **Vidéos connexes :** 
+  [La bibliothèque Amazon Builders’ Library : 25 ans d'excellence opérationnelle d'Amazon](https://www.youtube.com/watch?v=DSRhgBd_gtw) 
+  [Surveillance visuelle des applications avec Synthetics Amazon CloudWatch ](https://www.youtube.com/watch?v=_PCs-ucZz7E) 

 **Exemples connexes :** 
+  [Mesurer le temps de chargement des pages avec Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Client web Amazon CloudWatch RUM](https://github.com/aws-observability/aws-rum-web) 
+  [Kit SDK X-Ray pour Node.js](https://github.com/aws/aws-xray-sdk-node) 
+  [Kit SDK X-Ray pour Python](https://github.com/aws/aws-xray-sdk-python) 
+  [Kit SDK X-Ray pour Java](https://github.com/aws/aws-xray-sdk-java) 
+  [Kit SDK X-Ray pour .Net](https://github.com/aws/aws-xray-sdk-dotnet) 
+  [Kit SDK X-Ray pour Ruby](https://github.com/aws/aws-xray-sdk-ruby) 
+  [Démon X-Ray](https://github.com/aws/aws-xray-daemon) 
+  [Test de charge distribuée sur AWS](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 

# PERF05-BP03 Définir un processus pour améliorer les performances des charges de travail
<a name="perf_process_culture_workload_performance"></a>

 Définissez un processus d'évaluation de nouveaux services, les modèles de conception, les types de ressources et les configurations au fur et à mesure qu'elles deviennent disponibles. Par exemple, exécutez des tests de performances existants sur de nouvelles offres d'instances afin de déterminer leur potentiel d'amélioration de votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous supposez que votre architecture actuelle est statique et ne sera pas mise à jour au fil du temps. 
+  Vous introduisez des modifications d'architecture au fil du temps sans justification basée sur les métriques. 

 **Avantages liés au respect de cette bonne pratique :** Un processus défini pour les modifications d'architecture rend possible l'utilisation des données collectées pour influencer la conception de votre charge de travail au fil du temps. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les performances de votre charge de travail présentent quelques contraintes clés. Documentez-les pour connaître les types d'innovations qui pourraient améliorer les performances de votre charge de travail. Utilisez ces informations lors de l'apprentissage de nouveaux services ou la technologie au fur et à mesure de leur disponibilité afin d'identifier les moyens d'atténuer des contraintes ou des goulets d'étranglement. 

 Identifiez les principales contraintes de performance pour votre charge de travail. Documentez les contraintes environnementales de votre charge de travail pour connaître les types d'innovations qui pourraient améliorer les performances de celle-ci. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Identifiez les KPI de performance de votre charge de travail, comme indiqué dans [PERF05-BP01 Définir des indicateurs clés de performance (KPI) pour mesurer l'état et les performances de la charge de travail](perf_process_culture_establish_key_performance_indicators.md) pour établir un point de comparaison pour votre charge de travail. 
+  Utilisez [les outils d'observabilité d'AWS](https://docs.aws.amazon.com/wellarchitected/latest/management-and-governance-guide/aws-observability-tools.html) pour collecter des métriques de performance et mesurer les KPI. 
+  Effectuez une analyse approfondie pour identifier les domaines (tels que la configuration et le code d'application) de votre charge de travail qui ne sont pas performants, comme indiqué dans [PERF05-BP02 Utiliser des solutions de surveillance pour comprendre les domaines où les performances sont d'une importance critique](perf_process_culture_use_monitoring_solutions.md). » 
+  Utilisez vos outils d'analyse et de performance pour identifier la stratégie d'optimisation des performances. 
+  Utilisez des environnements de test ou de pré-production pour valider l'efficacité de la stratégie. 
+  Mettez en œuvre les modifications en production et surveillez en permanence les performances de la charge de travail. 
+  Documentez les améliorations et communiquez-les aux parties prenantes. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Blog AWS](https://aws.amazon.com/blogs/) 
+  [Nouveautés AWS](https://aws.amazon.com/new/?ref=wellarchitected) 

 **Vidéos connexes :** 
+  [Chaîne YouTube AWS Events](https://www.youtube.com/channel/UCdoadna9HFHsxXWhafhNvKw) 
+  [Chaîne YouTube AWS Online Tech Talks](https://www.youtube.com/user/AWSwebinars) 
+  [Chaîne YouTube Amazon Web Services](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 

 **Exemples connexes :** 
+  [AWS Github](https://github.com/aws) 
+  [AWS Skill Builder](https://explore.skillbuilder.aws/learn) 

# PERF05-BP04 Effectuer un test de charge de votre charge de travail
<a name="perf_process_culture_load_test"></a>

 Effectuez un test de charge de votre charge de travail pour vérifier qu'elle peut supporter la charge de production et identifier les éventuels goulots d'étranglement en termes de performances. 

 **Anti-modèles courants :** 
+  Vous testez les différentes parties et non la totalité de votre charge de travail. 
+  Vous testez la charge sur une infrastructure qui n'est pas la même que votre environnement de production. 
+  Vous n'effectuez le test de charge que pour la charge prévue sans aller au-delà, avec pour but de prévoir où vous pourriez rencontrer des problèmes à l'avenir. 
+  Vous effectuez des tests de charge sans consulter la [politique de test Amazon EC2](https://aws.amazon.com/ec2/testing/) et en soumettant un formulaire de soumission d'événements simulés. Cela entraîne l'échec de votre test, car cela ressemble à un événement de déni de service. 

 **Avantages liés au respect de cette bonne pratique :** La mesure de vos performances dans le cadre d'un test de charge vous indiquera où vous serez affecté au fil de l'augmentation de la charge. Cela peut vous permettre d'anticiper les changements nécessaires avant qu'ils n'affectent votre charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les tests de charge dans le cloud sont un processus visant à mesurer les performances de la charge de travail cloud dans des conditions réalistes avec la charge utilisateur attendue. Ce processus implique la mise en service d'un environnement cloud de type production, l'utilisation d'outils de test de charge pour générer la charge et l'analyse de métriques pour évaluer la capacité de votre charge de travail à gérer une charge réaliste. Pour effectuer un test de charge, vous devez exécuter des versions de données de production factices ou légèrement altérées (supprimez les données sensibles ou les informations d'identification). Effectuez automatiquement des tests de charge dans le cadre de votre pipeline de livraison et comparez les résultats aux indicateurs de performance clés et aux seuils prédéfinis. Ce processus vous permet de continuer à atteindre les performances requises. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Configurez l'environnement de test en fonction de votre environnement de production. Vous pouvez utiliser les services AWS pour exécuter des environnements à l'échelle de la production afin de tester votre architecture. 
+  Choisissez et configurez l'outil de test de charge adapté à votre charge de travail. 
+  Définissez les scénarios et les paramètres de test de charge (tels que la durée du test et le nombre d'utilisateurs). 
+  Réalisez des scénarios de test à grande échelle. Utilisez le AWS Cloud pour tester votre charge de travail et découvrir où elle ne parvient pas à se dimensionner ou si elle évolue de manière non linéaire. Par exemple, utilisez les instances Spot pour générer des charges à faible coût et découvrir les goulots d'étranglement avant de les rencontrer en production. 
+  Surveillez et enregistrez les métriques de performance (comme le débit et le temps de réponse). Amazon CloudWatch peut récupérer des métriques à partir des ressources de votre architecture. Vous pouvez également récupérer et publier des métriques personnalisées pour faire apparaître des métriques d'entreprise ou des métriques dérivées. 
+  Analysez les résultats pour identifier les goulots d'étranglement en matière de performances et les domaines à améliorer. 
+  Documentez et rendez compte du processus et des résultats des tests de charge. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon CloudWatch Synthetics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) 
+  [Test de charge distribuée sur AWS](https://docs.aws.amazon.com/solutions/latest/distributed-load-testing-on-aws/welcome.html) 

 **Vidéos connexes :** 
+  [Solving with AWS Solutions: Distributed Load Testing](https://www.youtube.com/watch?v=Y-2rk0sSyOM) 
+  [Optimize applications through Amazon CloudWatch RUM](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo of Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Exemples connexes :** 
+  [Test de charge distribuée sur AWS](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 

# PERF05-BP05 Utiliser l'automatisation pour résoudre de manière proactive les problèmes liés aux performances
<a name="perf_process_culture_automation_remediate_issues"></a>

 Utilisez les KPI en combinaison avec des systèmes de surveillance et d'alarme pour traiter de manière proactive les problèmes liés aux performances. 

 **Anti-modèles courants :** 
+  Vous autorisez uniquement le personnel des opérations à apporter des modifications opérationnelles à la charge de travail. 
+  Vous confiez toutes les activités de filtre des alarmes à l'équipe des opérations sans correction proactive. 

 **Avantages liés au respect de cette bonne pratique :** La correction proactive des actions d'alarme permet au personnel d'assistance de se concentrer sur les éléments qui ne sont pas exploitables automatiquement. Cela permet au personnel des opérations de gérer toutes les alarmes sans être submergé et de se concentrer uniquement sur les alarmes critiques. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Utilisez des alarmes pour déclencher des actions automatisées afin de corriger les problèmes dans la mesure du possible. Faites remonter l'alarme aux personnes qui peuvent répondre si une réponse automatique n'est pas possible. Par exemple, vous pourriez disposer d'un système capable de prédire les valeurs attendues de KPI et qui déclenche une alarme lorsqu'elles dépassent certains seuils. Vous pouvez aussi disposer d'un outil capable d'arrêter ou de restaurer automatiquement des déploiements si les valeurs des KPI dépassent celles attendues. 

 Mettez en place des processus qui rendent visibles les performances pendant que votre charge de travail est en cours d'exécution. Créez des tableaux de bord de surveillance et établissez des normes de référence pour les attentes en matière de performances pour déterminer si les performances de la charge de travail sont optimales. 

### Étapes d'implémentation
<a name="implementation-steps"></a>
+  Identifiez et comprenez le problème lié aux performances qui peut être résolu automatiquement. Utilisez les solutions de surveillance d'AWS telles que [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) ou AWS X-Ray pour vous aider à mieux comprendre la cause profonde du problème. 
+  Créez un plan et un processus de résolution étape par étape qui peuvent être utilisés pour résoudre automatiquement le problème. 
+  Configurez le déclencheur pour lancer automatiquement le processus de résolution. Par exemple, vous pouvez définir un déclencheur pour redémarrer automatiquement une instance lorsqu'elle atteint un certain seuil d'utilisation de l'UC. 
+  Utilisez les services et technologies AWS pour automatiser le processus de résolution. Par exemple, [AWS Systems Manager Automation](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html) fournit une solution sécurisée et évolutive d'automatisation du processus de résolution. 
+  Testez le processus de résolution automatisé dans un environnement de pré-production. 
+  Après les tests, mettez en œuvre le processus de résolution dans l'environnement de production et effectuez une surveillance continue pour identifier les domaines à améliorer. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Documentation CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Surveillance, journalisation et performances – Partenaires AWS Partner Network](https://aws.amazon.com/devops/partner-solutions/#_Monitoring.2C_Logging.2C_and_Performance) 
+  [Documentation X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Utilisation des alarmes et des actions d'alarme dans CloudWatch](https://docs.aws.amazon.com/sdk-for-go/v1/developer-guide/cw-example-using-alarm-actions.html) 

 **Vidéos connexes :** 
+  [Intelligently automating cloud operations](https://www.youtube.com/watch?v=m0S8eAF0l54) 
+  [Configuration de contrôles à grande échelle dans votre environnement AWS](https://www.youtube.com/watch?v=NkE9_okfPG8) 
+  [Automatiser la gestion des correctifs et la conformité à l'aide de AWS](https://www.youtube.com/watch?v=gL3baXQJvc0) 
+  [How Amazon uses better metrics for improved website performance](https://www.youtube.com/watch?v=_uaaCiyJCFA&ab_channel=AWSEvents) 

 **Exemples connexes :** 
+  [Personnalisation des alarmes CloudWatch Logs (langue française non garantie)](https://github.com/awslabs/cloudwatch-logs-customize-alarms) 

# PERF05-BP06 Maintenir votre charge de travail et vos services à jour
<a name="perf_process_culture_keep_workload_and_services_up_to_date"></a>

 Restez informé des nouveaux services et des nouvelles fonctionnalités cloud pour adopter des fonctionnalités efficaces, résoudre les problèmes et améliorer l'efficacité globale des performances de votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous supposez que votre architecture actuelle est statique et ne sera pas mise à jour au fil du temps. 
+  Vous ne disposez pas de systèmes ou de rythme régulier pour évaluer la compatibilité des packages et des logiciels mis à jour avec votre charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** En mettant en place un processus permettant de rester informé des nouveaux services et des nouvelles offres, vous pouvez adopter de nouvelles fonctionnalités et capacités, résoudre les problèmes et améliorer les performances de la charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Évaluez les méthodes d'amélioration des performances au fur et à mesure que de nouveaux services, modèles de conception et fonctionnalités de produits entrent en scène. Identifiez celles de ces méthodes qui sont susceptibles d'améliorer les performances ou d'accroître l'efficacité de la charge de travail via l'évaluation, la discussion interne ou l'analyse externe. Mettez en place un processus permettant d'évaluer les mises à jour, les nouvelles fonctions et les services pertinents pour votre charge de travail. Par exemple, la création d'une démonstration de faisabilité qui utilise les nouvelles technologies ou la consultation d'un groupe interne. Lorsque vous essayez de nouvelles idées ou services, exécutez des tests de performances pour mesurer leur impact sur les performances de la charge de travail. 

## Étapes d'implémentation
<a name="implementation-steps"></a>
+  Établissez l'inventaire de votre logiciel de charge de travail et de l'architecture, et identifiez les composants pouvant être mis à jour. 
+  Identifiez les actualités et mettez à jour les sources liées aux composants de votre charge de travail. À titre d'exemple, vous pouvez vous abonner au blog [Quelles sont les nouveautés AWS ?](https://aws.amazon.com/new/) pour les produits qui correspondent à votre charge de travail. Vous pouvez vous abonner au flux RSS ou gérer vos [abonnements aux e-mails](https://pages.awscloud.com/communication-preferences.html). » 
+  Définissez un calendrier pour évaluer les nouveaux services et les nouvelles fonctionnalités adaptés à votre charge de travail. 
  +  Vous pouvez utiliser [AWS Systems Manager Inventory](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-inventory.html) pour récupérer les métadonnées des systèmes d'exploitation, des applications et des instances issues de vos instances Amazon EC2 et rapidement connaître les instances exécutant le logiciel, les configurations requises par votre politique de logiciel et les instances devant être mises à jour. 
+  Comprenez comment mettre à jour les composants de votre charge de travail. Profitez de l'agilité du cloud pour tester rapidement en quoi les nouvelles fonctionnalités peuvent permettre à votre charge de travail de gagner en efficacité. 
+  Utilisez l'automatisation pour le processus de mise à jour afin de réduire le niveau d'effort nécessaire au déploiement des nouvelles fonctionnalités et de limiter les erreurs causées par les processus manuels. 
  +  Vous pouvez utiliser [CI/CD](https://aws.amazon.com/blogs/devops/complete-ci-cd-with-aws-codecommit-aws-codebuild-aws-codedeploy-and-aws-codepipeline/) pour mettre automatiquement à jour les AMI, les images de conteneurs et d'autres artefacts liés à votre application cloud. 
  +  Vous pouvez utiliser des outils tels que [le gestionnaire de correctifs AWS Systems Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-patch.html) pour automatiser le processus de mise à jour du système, et planifier l'activité à l'aide des [fenêtres de maintenance AWS Systems Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-maintenance.html). » 
+  Documentez votre processus d'évaluation des mises à jour et des nouveaux services. Donnez aux propriétaires le temps et l'espace nécessaires pour rechercher, tester, expérimenter et valider les mises à jour et les nouveaux services. Reportez-vous aux exigences opérationnelles documentées et aux KPI pour établir l'ordre de priorité des mises à jour qui auront un impact positif sur les activités. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Blog AWS](https://aws.amazon.com/blogs/) 
+  [Nouveautés AWS](https://aws.amazon.com/new/?ref=wellarchitected) 

 **Vidéos connexes :** 
+  [Chaîne YouTube AWS Events](https://www.youtube.com/channel/UCdoadna9HFHsxXWhafhNvKw) 
+  [Chaîne YouTube AWS Online Tech Talks](https://www.youtube.com/user/AWSwebinars) 
+  [Chaîne YouTube Amazon Web Services](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 

 **Exemples connexes :** 
+  [Ateliers Well-Architected : inventaire et gestion des correctifs](https://wellarchitectedlabs.com/operational-excellence/100_labs/100_inventory_patch_management/) 
+  [Atelier : AWS Systems Manager](https://mng.workshop.aws/ssm.html) 

# PERF05-BP07 Vérifier les métriques à intervalles réguliers
<a name="perf_process_culture_review_metrics"></a>

 Vérifiez les métriques qui sont collectées dans le cadre de la maintenance de routine ou en réponse à des événements ou des incidents. Utilisez ces vérifications pour identifier d'une part les métriques qui ont été essentielles pour traiter les problèmes, et d'autre part les métriques supplémentaires, si elles ont été suivies, qui pourraient aider à identifier, traiter ou empêcher les problèmes. 

 **Anti-modèles courants :** 
+  Vous autorisez les métriques à rester dans un état d'alarme pendant longtemps. 
+  Vous créez des alarmes qui ne sont pas exploitables par un système d'automatisation. 

 **Avantages liés au respect de cette bonne pratique :** Passer en revue en permanence les métriques qui sont collectées pour vérifier qu'elles identifient, résolvent ou préviennent correctement les problèmes. Les métriques peuvent également devenir caduques si vous les laissez dans un état d'alarme pendant longtemps. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Améliorez constamment la surveillance et la collecte des métriques. Lorsque vous répondez aux incidents ou aux événements, évaluez les métriques qui ont été utiles dans la gestion du problème et les métriques qui auraient pu aider mais ne sont pas suivies actuellement. Utilisez cette méthode pour améliorer la qualité des métriques que vous collectez afin de pouvoir prévenir ou résoudre plus rapidement les incidents futurs. 

 Lorsque vous répondez aux incidents ou aux événements, évaluez les métriques qui ont été utiles dans la gestion du problème et les métriques qui auraient pu aider mais ne sont pas suivies actuellement. Utilisez ce processus pour améliorer la qualité des métriques que vous collectez afin de pouvoir prévenir ou résoudre plus rapidement les incidents futurs. 

### Étapes d'implémentation
<a name="implementation-steps"></a>

1. Définissez des métriques de performances critiques à surveiller qui correspondent à votre objectif de charge de travail. 

1. Définissez une base de référence et une valeur souhaitable pour chaque métrique. 

1. Définissez une cadence (hebdomadaire ou mensuelle, par exemple) pour examiner les métriques critiques. 

1. Au cours de chaque examen, évaluez les tendances et les écarts par rapport aux valeurs de référence. Recherchez les goulots d'étranglement ou les anomalies au niveau des performances. 

1. Pour les problèmes identifiés, effectuez une analyse détaillée des causes profondes afin de comprendre la raison principale du problème. 

1. Documentez vos résultats et utilisez des stratégies pour résoudre les problèmes et les goulots d'étranglement identifiés. 

1. Évaluez et améliorez en permanence le processus de révision des métriques.

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Documentation CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Collecte des métriques et des journaux des instances Amazon EC2 et serveurs sur site avec l'agent CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Surveillance, journalisation et performances – Partenaires AWS Partner Network](https://aws.amazon.com/devops/partner-solutions/#_Monitoring.2C_Logging.2C_and_Performance) 
+  [Documentation X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 

 **Vidéos connexes :** 
+  [Configuration de contrôles à grande échelle dans votre environnement AWS](https://www.youtube.com/watch?v=NkE9_okfPG8) 
+  [How Amazon uses better metrics for improved website performance](https://www.youtube.com/watch?v=_uaaCiyJCFA&ab_channel=AWSEvents) 

 **Exemples connexes :** 
+  [Création d'un tableau de bord avec Quick](https://github.com/aws-samples/amazon-quicksight-sdk-proserve) 
+  [Niveau 100 : surveillance avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 