

# Leistungseffizienz
<a name="a-performance-efficiency"></a>

Die Säule „Leistungseffizienz“ umfasst die Fähigkeit, Rechenressourcen effizient entsprechend den Systemanforderungen zu nutzen und diese Effizienz aufrechtzuerhalten, während sich die Nachfrage ändert und die Technologie weiterentwickelt. Verbindliche Leitlinien zur Implementierung finden Sie im [Whitepaper zur Säule der Leistungseffizienz](https://docs.aws.amazon.com/wellarchitected/latest/performance-efficiency-pillar/welcome.html?ref=wellarchitected-wp).

**Topics**
+ [Auswahl der Architektur](a-selection.md)
+ [Computer und Hardware](a-compute-hardware.md)
+ [Datenverwaltung](a-data-management.md)
+ [Networking und Bereitstellung von Inhalten](a-networking-delivery.md)
+ [Prozess und Kultur](a-process-culture.md)

# Auswahl der Architektur
<a name="a-selection"></a>

**Topics**
+ [LEIST 1. Wie wählen Sie geeignete Cloud-Ressourcen und -Architekturen für Ihren Workload aus?](perf-01.md)

# LEIST 1. Wie wählen Sie geeignete Cloud-Ressourcen und -Architekturen für Ihren Workload aus?
<a name="perf-01"></a>

 Die optimale Lösung für einen bestimmten Workload variiert und Lösungen bestehen häufig aus einer Kombination mehrerer Ansätze. Well-Architected-Workloads nutzen mehrere Lösungen und ermöglichen verschiedene Funktionen zur Verbesserung der Leistung. 

**Topics**
+ [PERF01-BP01 Informieren über verfügbare Cloud-Services und -Funktionen](perf_architecture_understand_cloud_services_and_features.md)
+ [PERF01-BP02 Einholen von Rat beim Cloud-Anbieter oder einem geeigneten Partner, um mehr über Architekturmuster und bewährte Methoden zu erfahren](perf_architecture_guidance_architecture_patterns_best_practices.md)
+ [PERF01-BP03 Berücksichtigen der Kosten bei architektonischen Entscheidungen](perf_architecture_factor_cost_into_architectural_decisions.md)
+ [PERF01-BP04 Evaluieren, wie sich Kompromisse auf Kunden und Architektureffizienz auswirken](perf_architecture_evaluate_trade_offs.md)
+ [PERF01-BP05 Verwenden von Richtlinien und Referenzarchitekturen](perf_architecture_use_policies_and_reference_architectures.md)
+ [PERF01-BP06 Verwenden von Benchmarking, um architektonische Entscheidungen zu treffen](perf_architecture_use_benchmarking.md)
+ [PERF01-BP07 Verwenden eines datengesteuerten Ansatzes für architektonische Entscheidungen](perf_architecture_use_data_driven_approach.md)

# PERF01-BP01 Informieren über verfügbare Cloud-Services und -Funktionen
<a name="perf_architecture_understand_cloud_services_and_features"></a>

 Informieren Sie sich kontinuierlich über verfügbare Services und Konfigurationen, die Ihnen helfen, bessere architektonische Entscheidungen zu treffen und die Leistungseffizienz Ihrer Workload-Architektur zu verbessern. 

 **Typische Anti-Muster:** 
+  Sie verwenden die Cloud als gemeinsam genutztes Rechenzentrum. 
+  Sie modernisieren die Anwendung nach der Migration in die Cloud nicht. 
+  Sie verwenden nur einen Speichertyp für alle Objekte, die gespeichert werden müssen. 
+  Sie verwenden Instance-Typen, die am besten zu Ihren aktuellen Standards passen, bei Bedarf jedoch größer sind. 
+  Von Ihnen werden Technologien bereitgestellt und verwaltet, die als verwaltete Services verfügbar sind. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie neue Services und Konfigurationen in Betracht ziehen, können Sie möglicherweise die Leistung erheblich verbessern, die Kosten senken und den Aufwand für die Aufrechterhaltung des Workloads optimieren. Es kann Ihnen auch dabei helfen, die Wertschöpfung für Cloud-fähige Produkte zu beschleunigen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 AWS veröffentlicht kontinuierlich neue Services und Funktionen, mit denen die Leistung verbessert und die Kosten von Cloud-Workloads gesenkt werden können. Es ist entscheidend, mit diesen neuen Services und Funktionen auf dem Laufenden zu bleiben, um die Leistungseffizienz in der Cloud aufrechtzuerhalten. Die Modernisierung der Workload-Architektur hilft Ihnen auch dabei, die Produktivität zu beschleunigen, Innovationen voranzutreiben und mehr Wachstumschancen zu erschließen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Inventarisieren Sie die Workload-Software und -Architektur für verwandte Services. Entscheiden Sie, über welche Produktkategorie Sie mehr erfahren möchten. 
+  Erkunden Sie die AWS-Angebote, um die relevanten Services und Konfigurationsoptionen zu identifizieren und kennenzulernen, mit denen Sie die Leistung verbessern und die Kosten und die betriebliche Komplexität reduzieren können. 
  +  [Neuerungen bei AWS](https://aws.amazon.com/new/) 
  +  [AWS-Blog](https://aws.amazon.com/blogs/) 
  +  [AWS Skill Builder](https://skillbuilder.aws/) 
  +  [AWS-Veranstaltungen und -Webinare](https://aws.amazon.com/events/) 
  +  [AWS Training und -Zertifizierungen](https://www.aws.training/) 
  +  [YouTube-Kanal: AWS](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 
  +  [AWS-Workshops](https://workshops.aws/) 
  +  [AWS-Communitys](https://aws.amazon.com/events/asean/community-and-events/) 
+  Verwenden Sie Sandbox- bzw. Nicht-Produktionsumgebungen, um neue Services zu erlernen und mit ihnen zu experimentieren, ohne dass zusätzliche Kosten anfallen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Im AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Die AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [Moderne Anwendungen in AWS entwickeln](https://aws.amazon.com/modern-apps/) 

 **Zugehörige Videos:** 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS Samples](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP02 Einholen von Rat beim Cloud-Anbieter oder einem geeigneten Partner, um mehr über Architekturmuster und bewährte Methoden zu erfahren
<a name="perf_architecture_guidance_architecture_patterns_best_practices"></a>

 Greifen Sie bei Ihren architektonischen Entscheidungen auf die Ressourcen von Cloud-Unternehmen, wie etwa Dokumentation, Lösungsarchitekten, professionelle Services oder einen geeigneten Partner zurück. Diese Ressourcen helfen Ihnen dabei, Ihre Architektur zu überprüfen und zu verbessern, um so die Leistung zu optimieren. 

 **Typische Anti-Muster:** 
+  Sie verwenden AWS als gängigen Cloud-Anbieter. 
+  Sie verwenden AWS-Services auf eine Weise, für die sie nicht konzipiert wurden. 
+  Sie befolgen alle Anweisungen, ohne Ihren Geschäftskontext zu berücksichtigen. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie sich Rat bei einem Cloud-Anbieter oder einem geeigneten Partner einholen, können Sie die richtige Architektur für den Workload wählen und Entscheidungen mit größerer Zuversicht treffen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 AWS bietet eine breite Palette an Anleitungen, Dokumentation und Ressourcen, die Sie bei der Entwicklung und Verwaltung effizienter Cloud-Workloads unterstützen können. Die AWS-Dokumentation enthält Codebeispiele, Tutorials und detaillierte Serviceerklärungen. Zusätzlich zur Dokumentation bietet AWS Trainings- und Zertifizierungsprogramme, Lösungsarchitekten und professionelle Services, die Kunden dabei helfen können, verschiedene Aspekte von Cloud-Services zu entdecken und eine effiziente Cloud-Architektur in AWS zu implementieren. 

 Nutzen Sie diese Ressourcen, um Einblicke in wertvolles Wissen und bewährte Methoden zu gewinnen, Zeit zu sparen und bessere Ergebnisse in der AWS Cloud zu erzielen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Lesen Sie die AWS-Dokumentation und -Anleitungen und befolgen Sie die bewährten Methoden. Diese Ressourcen können Ihnen helfen, Services effektiv auszuwählen und zu konfigurieren und eine bessere Leistung zu erzielen. 
  +  [AWS-Dokumentation](https://docs.aws.amazon.com/) (wie Benutzerhandbücher und Whitepapers) 
  +  [AWS-Blog](https://aws.amazon.com/blogs/) 
  +  [AWS Training und -Zertifizierungen](https://www.aws.training/) 
  +  [YouTube-Kanal: AWS](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 
+  Nehmen Sie an AWS-Partnerveranstaltungen (wie AWS Global Summits,AWS re:Invent, Benutzergruppen und Workshops) teil, um von AWS-Experten mehr über bewährte Methoden für die Nutzung von AWS-Services zu lernen. 
  +  [AWS-Veranstaltungen und -Webinare](https://aws.amazon.com/events/) 
  +  [AWS-Workshops](https://workshops.aws/) 
  +  [AWS-Communitys](https://aws.amazon.com/events/asean/community-and-events/) 
+  Wenden Sie sich an AWS, wenn Sie zusätzliche Anleitungen oder Produktinformationen benötigen. AWS Solutions Architects und [AWS Professional Services](https://aws.amazon.com/professional-services/) liefern Ratschläge für die Implementierung von Lösungen. [AWS-Partner](https://aws.amazon.com/partners/) bieten AWS-Fachwissen, damit Sie in Ihrem Unternehmen flexibel agieren und Innovationen nutzen können. 
+  Verwenden Sie [Support,](https://aws.amazon.com/contact-us/) wenn Sie technischen Support benötigen, um einen Service effektiv nutzen zu können. [Unsere Support-Pläne](https://aws.amazon.com/premiumsupport/plans/) bieten Ihnen die richtige Kombination aus Tools und Zugang zu Fachwissen, um die Grundlagen für Ihren Erfolg mit AWS zu legen, ohne dabei Themen wie Leistungsoptimierung, Risikomanagement und Kostenkontrolle zu vernachlässigen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [Die AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [AWS Enterprise Support](https://aws.amazon.com/premiumsupport/plans/enterprise/) 

 **Zugehörige Videos:** 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS Samples](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP03 Berücksichtigen der Kosten bei architektonischen Entscheidungen
<a name="perf_architecture_factor_cost_into_architectural_decisions"></a>

 Berücksichtigen Sie die Kosten bei Ihren architektonischen Entscheidungen, um die Ressourcennutzung und Leistungseffizienz der Cloud-Workloads zu verbessern. Wenn Sie sich der Kostenauswirkungen des Cloud-Workloads bewusst sind, ist es wahrscheinlicher, dass Sie effiziente Ressourcen nutzen und verschwenderische Methoden reduzieren. 

 **Typische Anti-Muster:** 
+  Sie verwenden nur eine Instance-Familie. 
+  Sie bewerten keine lizenzierten Lösungen verglichen mit Open-Source-Lösungen. 
+  Sie definieren keine Speicher-Lebenszyklusrichtlinien. 
+  Sie prüfen keine neuen Services und Funktionen der AWS Cloud. 
+  Sie nutzen nur Blockspeicher. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie die Kosten bei Ihrer Entscheidungsfindung berücksichtigen, können Sie effizientere Ressourcen einsetzen und andere Investitionen in Betracht ziehen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Kostenoptimierung von Workloads kann die Ressourcennutzung verbessern und Verschwendung bei einem Cloud-Workload vermeiden. Die Berücksichtigung der Kosten bei architektonischen Entscheidungen beinhaltet in der Regel die richtige Dimensionierung der Workload-Komponenten und die Schaffung von Elastizität. Dies führt zu einer verbesserten Leistungseffizienz von Cloud-Workloads. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Legen Sie Kostenziele wie Budgetlimits für den Cloud-Workload fest. 
+  Identifizieren Sie die wesentlichen Komponenten (wie Instances und Speicher), die die Kosten des Workloads erhöhen. Nutzen Sie Instrumentierungsservices wie [AWS Pricing Calculator](https://calculator.aws/#/) und [AWS Cost Explorer](https://aws.amazon.com/aws-cost-management/aws-cost-explorer/) , um die wichtigsten Kostentreiber in Ihrem Workload zu identifizieren. 
+  Verwenden Sie [Best Practices zur Kostenoptimierung bei Well-Architected-Technologien,](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/welcome.html) um diese Schlüsselkomponenten aus Kostengründen zu optimieren. 
+  Überwachen und analysieren Sie kontinuierlich die Kosten, um Möglichkeiten zur Kostenoptimierung im Workload zu identifizieren. 
  +  Verwenden Sie [AWS-Budgets,](https://aws.amazon.com/aws-cost-management/aws-budgets/) um bei nicht akzeptablen Kosten Warnungen zu erhalten. 
  +  Verwenden Sie [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) oder [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) , um Empfehlungen zur Kostenoptimierung zu erhalten. 
  +  Verwenden Sie [AWS Cost Anomaly Detection,](https://aws.amazon.com/aws-cost-management/aws-cost-anomaly-detection/) um das automatisierte Erkennen von Kostenanomalien mit Ursachenanalyse zu erhalten. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Eine detaillierte Übersicht über das Cost Intelligence Dashboard](https://aws.amazon.com/blogs/aws-cloud-financial-management/a-detailed-overview-of-the-cost-intelligence-dashboard/) 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Die AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Zugehörige Videos:** 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [AWS Samples](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 
+  [Die richtige Dimensionierung ermitteln, wenn Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF01-BP04 Evaluieren, wie sich Kompromisse auf Kunden und Architektureffizienz auswirken
<a name="perf_architecture_evaluate_trade_offs"></a>

 Ermitteln Sie beim Evaluieren von leistungsbezogenen Verbesserungen, welche gewählten Optionen sich auf Ihre Kunden und die Effizienz der Workloads auswirken. Wenn sich die Systemleistung beispielsweise bei Verwendung eines Schlüssel-Wert-Datenspeichers erhöht, sollten Sie unbedingt ermitteln, welche Auswirkungen sich bei einem dauerhaften Einsatz für die Kunden ergeben würden. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass alle Leistungsgewinne implementiert werden sollten, auch wenn es Kompromisse für die Implementierung gibt. 
+  Änderungen an Workloads werden nur dann ausgewertet, wenn ein Leistungsproblem einen kritischen Punkt erreicht hat. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie potenzielle leistungsbezogene Verbesserungen bewerten, müssen Sie entscheiden, ob die Kompromisse für die Änderungen angesichts der Workload-Anforderungen akzeptabel sind. In einigen Fällen müssen Sie möglicherweise zusätzliche Kontrollen implementieren, um Kompromisse zu kompensieren. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Identifizieren Sie kritische Bereiche in der Architektur in Bezug auf Leistung und Kundenauswirkung. Stellen Sie fest, welche Verbesserungen möglich und welche Kompromisse damit verbunden sind und wie sich diese auf das System und das Benutzererlebnis auswirken. So lässt sich beispielsweise durch Caching von Daten die Leistung deutlich steigern. Es ist aber eine eindeutige Strategie erforderlich, mit der festgelegt wird, wie und wann Cache-Daten aktualisiert oder ungültig werden, um unerwünschtes Systemverhalten zu verhindern. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Verstehen Sie Ihre Workload-Anforderungen und SLAs. 
+  Definieren Sie klare Bewertungsfaktoren. Faktoren können sich auf Kosten, Zuverlässigkeit, Sicherheit und Leistung des Workloads beziehen. 
+  Wählen Sie die Architektur und Services, die Ihren Anforderungen entsprechen. 
+  Führen Sie Experimente und Machbarkeitsstudien (POCs) durch, um Kompromissfaktoren und Auswirkungen auf Kunden und Architektureffizienz zu bewerten. In der Regel verbrauchen hochverfügbare, leistungsstarke und sichere Workloads mehr Cloud-Ressourcen und bieten gleichzeitig ein besseres Kundenerlebnis. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon Builders’ Library](https://aws.amazon.com/builders-library) 
+  [Quick-KPIs](https://docs.aws.amazon.com/quicksight/latest/user/kpi.html) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [X-Ray-Dokumentation](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+ [ Resilienzmuster und Kompromisse verstehen, um eine effiziente Architektur in der Cloud zu entwickeln ](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)

 **Zugehörige Videos:** 
+  [Erstellen eines Überwachungsplans](https://www.youtube.com/watch?v=OMmiGETJpfU&ref=wellarchitected) 
+  [Optimieren von Anwendungen mithilfe von Amazon CloudWatch RUM](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo von Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Zugehörige Beispiele:** 
+  [Messen der Seitenladezeit mit Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Amazon CloudWatch RUM Web Client](https://github.com/aws-observability/aws-rum-web) 

# PERF01-BP05 Verwenden von Richtlinien und Referenzarchitekturen
<a name="perf_architecture_use_policies_and_reference_architectures"></a>

 Verwenden Sie interne Richtlinien und vorhandene Referenzarchitekturen bei der Auswahl von Services und Konfigurationen, um den Workload effizienter zu gestalten und zu implementieren. 

 **Typische Anti-Muster:** 
+  Sie erlauben eine Vielzahl von Technologien, was sich auf den Verwaltungsaufwand Ihres Unternehmens auswirken kann. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch Festlegung einer Richtlinie für die Architektur-, Technologie und Anbieterauswahl können Entscheidungen schnell getroffen werden. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Interne Richtlinien bei der Auswahl von Ressourcen und Architektur bieten Standards und Leitlinien, die bei Architekturentscheidungen zu beachten sind. Diese Richtlinien vereinfachen den Entscheidungsprozess bei der Auswahl des richtigen Cloud-Service und können zur Verbesserung der Leistungseffizienz beitragen. Stellen Sie den Workload mithilfe von Richtlinien oder Referenzarchitekturen bereit. Integrieren Sie die Services in Ihre Cloud-Bereitstellung. Überprüfen Sie anschließend anhand von Leistungstests, dass Sie die eigenen Leistungsanforderungen weiterhin erfüllen können. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Verstehen Sie die Anforderungen des Cloud-Workloads genau. 
+  Überprüfen Sie die internen und externen Richtlinien, um die relevantesten zu ermitteln. 
+  Verwenden Sie die entsprechenden Referenzarchitekturen, die von AWS bereitgestellt werden, oder die branchenweit anerkannten bewährten Methoden. 
+  Schaffen Sie ein Kontinuum, das aus Richtlinien, Standards, Referenzarchitekturen und präskriptiven Richtlinien für häufig auftretende Situationen besteht. Auf diese Weise können Ihre Teams schneller vorankommen. Passen Sie die Komponenten gegebenenfalls an die Branche an. 
+  Prüfen Sie diese Richtlinien und Referenzarchitekturen für den Workload in Sandbox-Umgebungen. 
+  Bleiben Sie über Industriestandards und AWS-Updates auf dem Laufenden, um sicherzustellen, dass die Richtlinien und Referenzarchitekturen zur Optimierung des Cloud-Workloads beitragen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Im AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Die AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Zugehörige Videos:** 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS Samples](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP06 Verwenden von Benchmarking, um architektonische Entscheidungen zu treffen
<a name="perf_architecture_use_benchmarking"></a>

 Führen Sie einen Benchmark-Vergleich für einen vorhandenen Workload durch, um sich ein Bild über dessen Leistung in der Cloud zu verschaffen, und treffen Sie architektonische Entscheidungen auf der Grundlage dieser Daten. 

 **Typische Anti-Muster:** 
+  Sie verlassen sich auf gängige Benchmarks, die für die Workload-Merkmale nicht aufschlussreich sind. 
+  Sie verlassen sich auf Kundenfeedback und Kundenwahrnehmung als einzige Benchmark. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch das Benchmarking Ihrer aktuellen Implementierung können Sie die Leistungssteigerung messen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Kombinieren Sie Benchmarking mit synthetischen Tests, um die Leistung Ihrer Workload-Komponenten zu bewerten. Benchmarking lässt sich in der Regel schneller als Lasttests einrichten und dient zur Bewertung der Technologie einer bestimmten Komponente. Ein Benchmarking wird oft zu Beginn eines neuen Projekts durchgeführt, wenn Sie noch keine vollständige Lösung für einen Lasttest haben. 

 Sie können wahlweise eigene Benchmark-Tests erstellen oder branchenübliche Standardtests verwenden, wie etwa [TPC-DS](http://www.tpc.org/tpcds/), um Ihre Workloads zu vergleichen. Branchen-Benchmarks sind zum Vergleich von Umgebungen nützlich. Benutzerdefinierte Benchmarks eignen sich zum Prüfen spezieller Arten von Vorgängen, die Sie in der Architektur ausführen möchten. 

 Beim Benchmarking ist es wichtig, die Testumgebung entsprechend vorzubereiten, um aussagekräftige Ergebnisse zu erzielen. Führen Sie denselben Benchmark-Test mehrmals aus, um sicherzustellen, dass alle Varianzen im Laufe der Zeit ermittelt wurden. 

 Da sich Benchmarks in der Regel schneller als Lasttests ausführen lassen, können Sie früher in der Bereitstellungspipeline eingesetzt werden und schneller Feedback zu Leistungsabweichungen liefern. Wenn Sie eine wesentliche Veränderung einer Komponente oder eines Services bewerten, können Sie schnell ermitteln, ob der Aufwand für die Korrektur gerechtfertigt ist. Die Verwendung von Benchmarking in Verbindung mit Lasttests ist wichtig, da letztere Auskunft über die Leistung der Workload in der Produktion geben. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Definieren Sie die Metriken (wie CPU-Auslastung, Latenz oder Durchsatz), um die Workload-Leistung zu bewerten. 
+  Identifizieren und richten Sie ein Benchmarking-Tool ein, das für den Workload geeignet ist. Sie können AWS-Services (z. B. [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html)) oder ein Drittanbieter-Tool verwenden, das mit Ihrem Workload kompatibel ist. 
+  Führen Sie die Benchmark-Tests durch und überwachen Sie die Metriken während des Tests. 
+  Analysieren und dokumentieren Sie die Benchmarking-Ergebnisse, um Engpässe und Probleme zu identifizieren. 
+  Verwenden Sie die Testergebnisse, um architektonische Entscheidungen zu treffen und den Workload anzupassen. Dies kann die Änderung von Services oder die Einführung neuer Funktionen beinhalten. 
+  Testen Sie den Workload nach der Anpassung erneut. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Im AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [Die AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon CloudWatch Synthetics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) 

 **Zugehörige Videos:** 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 
+  [Optimieren von Anwendungen mithilfe von Amazon CloudWatch RUM](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo von Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Zugehörige Beispiele:** 
+  [AWS Samples](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 
+  [Verteilte Belastungstests](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 
+  [Messen der Seitenladezeit mit Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Amazon CloudWatch RUM Web Client](https://github.com/aws-observability/aws-rum-web) 

# PERF01-BP07 Verwenden eines datengesteuerten Ansatzes für architektonische Entscheidungen
<a name="perf_architecture_use_data_driven_approach"></a>

 Definieren Sie einen klaren, datengesteuerten Ansatz für architektonische Entscheidungen, um sicherzustellen, dass die richtigen Cloud-Services und -Konfigurationen verwendet werden, um Ihre spezifischen Geschäftsanforderungen zu erfüllen. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass die aktuelle Architektur statisch ist und im Laufe der Zeit nicht aktualisiert werden sollte. 
+  Ihre architektonischen Entscheidungen basieren auf Vermutungen und Annahmen. 
+  Sie führen im Laufe der Zeit Änderungen an der Architektur ein, ohne sie begründen. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch einen klar definierten Ansatz für architektonische Entscheidungen verwenden Sie Daten, um das Workload-Design zu beeinflussen und im Laufe der Zeit fundierte Entscheidungen zu treffen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Nutzen Sie interne Erfahrungen und Kenntnisse im Zusammenhang mit der Cloud oder ziehen Sie externe Ressourcen heran, wie etwa veröffentlichte Anwendungsbeispiele oder Whitepapers, um Ressourcen und Services in der Architektur auszuwählen. Sie sollten über einen klar definierten Prozess verfügen, der das Experimentieren und Benchmarking mit den Services fördert, die im Workload verwendet werden könnten. 

 Backlogs für kritische Workloads sollten nicht nur aus Benutzerszenarien bestehen, die für das Unternehmen und die Benutzer relevante Funktionen bereitstellen, sondern auch aus technischen Szenarien, die ein architektonisches System für den Workload bilden. Dieses System stützt sich auf neue technologische Fortschritte sowie neue Services und nimmt diese auf der Grundlage von Daten und entsprechender Begründung an. Dies stellt sicher, dass die Architektur zukunftssicher bleibt und nicht stagniert. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Arbeiten Sie mit wichtigen Interessenvertretern zusammen, um die Workload-Anforderungen zu definieren, einschließlich Überlegungen zu Leistung, Verfügbarkeit und Kosten. Berücksichtigen Sie Faktoren wie die Anzahl der Benutzer und das Nutzungsmuster für den Workload. 
+  Erstellen Sie ein Architektursystem oder einen Technologie-Backlog, der zusammen mit dem funktionalen Backlog priorisiert wird. 
+  Bewerten und beurteilen Sie verschiedene Cloud-Services (weitere Informationen finden Sie unter [PERF01-BP01 Informieren über verfügbare Cloud-Services und -Funktionen](perf_architecture_understand_cloud_services_and_features.md)). 
+  Erkunden Sie verschiedene Architekturmuster wie Microservices oder Serverless, die Ihren Leistungsanforderungen entsprechen (weitere Informationen finden Sie unter [PERF01-BP02 Einholen von Rat beim Cloud-Anbieter oder einem geeigneten Partner, um mehr über Architekturmuster und bewährte Methoden zu erfahren](perf_architecture_guidance_architecture_patterns_best_practices.md)). 
+  Konsultieren Sie andere Teams, Architekturdiagramme und Ressourcen wie AWS Solution Architects, [AWS-Architekturzentrum](https://aws.amazon.com/architecture/)und [AWS Partner Network](https://aws.amazon.com/partners/), um Ihnen bei der Auswahl der richtigen Architektur für Ihren Workload zu helfen. 
+  Definieren Sie Leistungskennzahlen wie Durchsatz und Reaktionszeit, anhand derer Sie die Leistung des Workloads bewerten können. 
+  Experimentieren Sie und verwenden Sie definierte Metriken, um die Leistung der ausgewählten Architektur zu validieren. 
+  Überwachen Sie kontinuierlich und nehmen Sie bei Bedarf Anpassungen vor, um die optimale Leistung der Architektur aufrechtzuerhalten. 
+  Dokumentieren Sie Ihre gewählte Architektur und Entscheidungen als Referenz für zukünftige Updates und Erkenntnisse. 
+  Überprüfen und aktualisieren Sie den Ansatz zur Architekturauswahl kontinuierlich auf der Grundlage von Erkenntnissen, neuen Technologien und Metriken, die auf eine notwendige Änderung oder ein Problem im aktuellen Ansatz hinweisen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Die AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Zugehörige Videos:** 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS Samples](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# Computer und Hardware
<a name="a-compute-hardware"></a>

# LEIST 2. Wie wählen und nutzen Sie Computing-Ressourcen für Ihren Workload?
<a name="perf-02"></a>

 Die optimale Datenverarbeitungsoption für einen bestimmten Workload kann sich je nach Anwendungsdesign, Nutzungsmustern und Konfigurationseinstellungen unterscheiden. Architekturen können verschiedene Computing-Optionen für verschiedene Komponenten verwenden und verschiedene Funktionen zur Verbesserung der Leistung bieten. Die Wahl der falschen Datenverarbeitungslösung für eine Architektur kann die Leistungseffizienz schmälern. 

**Topics**
+ [PERF02-BP01 Auswählen der besten Datenverarbeitungsoptionen für den Workload](perf_compute_hardware_select_best_compute_options.md)
+ [PERF02-BP02 Verstehen verfügbarer Konfigurationen und Funktionen für die Datenverarbeitung](perf_compute_hardware_understand_compute_configuration_features.md)
+ [PERF02-BP03 Erfassen von Datenverarbeitungsmetriken](perf_compute_hardware_collect_compute_related_metrics.md)
+ [PERF02-BP04 Konfigurieren und richtiges Dimensionieren von Datenverarbeitungsressourcen](perf_compute_hardware_configure_and_right_size_compute_resources.md)
+ [PERF02-BP05 Dynamisches Skalieren von Datenverarbeitungsressourcen](perf_compute_hardware_scale_compute_resources_dynamically.md)
+ [PERF02-BP06 Verwenden von optimierten hardwarebasierten Datenverarbeitungsbeschleunigern](perf_compute_hardware_compute_accelerators.md)

# PERF02-BP01 Auswählen der besten Datenverarbeitungsoptionen für den Workload
<a name="perf_compute_hardware_select_best_compute_options"></a>

 Wenn Sie die für den Workload am besten geeignete Computing-Option auswählen, können Sie die Leistung verbessern, unnötige Infrastrukturkosten reduzieren und den Betriebsaufwand für die Aufrechterhaltung des Workloads senken. 

 **Typische Anti-Muster:** 
+  Sie verwenden dieselbe Option für die Datenverarbeitung, die on-premises verwendet wurde. 
+  Ihnen fehlt es an Bewusstsein für Cloud-Datenverarbeitungsoptionen, -funktionen und -lösungen und wie diese Lösungen die Datenverarbeitungsleistung verbessern können. 
+  Sie stellen eine bestehende Datenverarbeitungsoption zu viel bereit, um Skalierungs- oder Leistungsanforderungen zu erfüllen, wenn eine alternative Datenverarbeitungsoption den Workload-Merkmalen besser entsprechen würde. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch die Ermittlung der Anforderungen an die Datenverarbeitung und deren Bewertung anhand der verfügbaren Optionen können Sie den Workload ressourceneffizienter gestalten. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Zur Optimierung der Cloud-Workloads im Hinblick auf Leistungseffizienz ist es wichtig, die am besten geeigneten Datenverarbeitungsoptionen für Ihren Anwendungsfall und Ihre Leistungsanforderungen auszuwählen. AWS bietet eine Vielzahl von Datenverarbeitungsoptionen, die auf unterschiedliche Workloads in der Cloud zugeschnitten sind. Zum Beispiel können Sie mit [Amazon EC2](https://docs.aws.amazon.com/ec2/) virtuelle Server starten und verwalten, [AWS Lambda](https://docs.aws.amazon.com/lambda/?icmpid=docs_homepage_featuredsvcs) Code ausführen, ohne Server bereitstellen oder verwalten zu müssen, [Amazon ECS](https://aws.amazon.com/ecs/) oder [Amazon EKS](https://aws.amazon.com/eks/) Container ausführen und verwalten oder [AWS Batch](https://aws.amazon.com/batch/) große Datenmengen parallel verarbeiten. Basierend auf Ihren Skalierungs- und Datenverarbeitungsanforderungen sollten Sie die optimale Datenverarbeitungslösung für Ihre Situation auswählen und konfigurieren. Sie können auch erwägen, mehrere Arten von Datenverarbeitungslösungen in einem einzigen Workload zu verwenden, da jede ihre eigenen Vor- und Nachteile hat. 

 Die folgenden Schritte führen Sie durch die Auswahl der richtigen Datenverarbeitungsoptionen, die Ihren Workload-Eigenschaften und Leistungsanforderungen entsprechen. 

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Verstehen Sie Ihre Workload-Datenverarbeitungsanforderungen. Die zu berücksichtigenden wesentlichen Anforderungen umfassen Anforderungen an Datenverarbeitung, Datenverkehrsmuster, Datenzugriffsmuster, Skalierung und Latenz. 

1.  Erfahren Sie mehr über die verschiedenen Datenverarbeitungsoptionen, die für Ihren Workload in AWS verfügbar sind (wie unter [PERF01-BP01 Informieren über verfügbare Cloud-Services und -Funktionen](perf_architecture_understand_cloud_services_and_features.md). Hier finden Sie einige wichtige AWS-Datenverarbeitungsoptionen, ihre Eigenschaften und gängige Anwendungsfälle:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_compute_hardware_select_best_compute_options.html)

1.  Bewerten Sie die Kosten (wie stündliche Gebühr oder Datenübertragung) und den Verwaltungsaufwand (wie Patching und Skalierung), die mit jeder Datenverarbeitungsoption verbunden sind. 

1.  Führen Sie Experimente und Benchmarking in einer Nicht-Produktionsumgebung durch, um herauszufinden, welche Datenverarbeitungsoption Ihre Workload-Anforderungen am besten erfüllt. 

1.  Nachdem Sie experimentiert und die neue Datenverarbeitungslösung ermittelt haben, planen Sie die Migration und überprüfen Sie die Leistungsmetriken. 

1.  Verwenden Sie AWS Überwachungstools wie [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) und Optimierungsservices wie [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) zur kontinuierlichen Optimierung Ihrer Rechenressourcen auf der Grundlage realer Nutzungsmuster. 

 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Amazon EC2-Instance-Typen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 
+ [Präskriptive Anleitung für Container](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23containers&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 
+  [Präskriptive Anleitung für Serverless](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23serverless&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 

 **Zugehörige Videos:** 
+  [Datenverarbeitungsoptionen auswählen](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Grundlagen für Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [ML-Modelle für Inferenz mit hoher Leistung und niedrigen Kosten bereitstellen](https://www.youtube.com/watch?v=4FqHt5bmS2o) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2](https://www.youtube.com/watch?v=_dvh4P2FVbw&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [Migration der Webanwendung zu Containern](https://application-migration-with-aws.workshop.aws/en/container-migration.html) 
+  [Ausführen eines Serverless-„Hello World“](https://aws.amazon.com/getting-started/hands-on/run-serverless-code/) 

# PERF02-BP02 Verstehen verfügbarer Konfigurationen und Funktionen für die Datenverarbeitung
<a name="perf_compute_hardware_understand_compute_configuration_features"></a>

 Informieren Sie sich über die verfügbaren Konfigurationsoptionen und Funktionen für den Datenverarbeitungsservice, damit Sie die richtige Menge an Ressourcen bereitstellen und die Leistungseffizienz verbessern können. 

 **Typische Anti-Muster:** 
+  Sie bewerten keine Datenverarbeitungsoptionen oder verfügbaren Instance-Familien anhand der Workload-Merkmale. 
+  Sie stellen zu viele Datenverarbeitungsressourcen bereit, um Anforderungen von Nachfragespitzen zu erfüllen. 

** Vorteile der Nutzung dieser bewährten Methode:** Machen Sie sich mit den AWS-Funktionen und -Konfigurationen für die Datenverarbeitung vertraut, sodass Sie eine Datenverarbeitungslösung verwenden können, die für die Workload-Merkmale und -Anforderungen optimiert ist.

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Jede Datenverarbeitungslösung verfügt über einzigartige Konfigurationen und Funktionen, um unterschiedliche Workload-Merkmale und -Anforderungen zu unterstützen. Erfahren Sie, wie diese Optionen den Workload ergänzen, und finden Sie heraus, welche Konfigurationsoptionen am besten für Ihre Anwendung geeignet sind. Beispiele für diese Optionen sind Instance-Familien, Größen, Merkmale (GPU, E/A), Bursting, Zeitüberschreitungen, Funktionsgrößen, Container-Instances und Gleichzeitigkeit. Wenn Ihre Workload die gleiche Rechenoption für mehr als vier Wochen verwendet hat und sie davon ausgehen, dass die Eigenschaften in Zukunft gleich bleiben, können Sie mithilfe von [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/)  herausfinden, ob Ihre aktuelle Datenverarbeitungsoption aus CPU- und Speicherebene für die Workloads geeignet ist. 

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Verstehen Sie die Workload-Anforderungen (wie CPU-Bedarf, Arbeitsspeicher und Latenz). 

1.  Lesen Sie die AWS-Dokumentation und die bewährten Methoden, um mehr über empfohlene Konfigurationsoptionen zu erfahren, mit denen Sie die Rechenleistung verbessern können. Hier finden Sie einige wichtige Konfigurationsoptionen, die Sie in Betracht ziehen sollten:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_compute_hardware_understand_compute_configuration_features.html)

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Amazon EC2-Instance-Typen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Steuerung des Prozessorzustands für Ihre Amazon EC2-Instance ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 

 **Zugehörige Videos:** 
+  [Grundlagen für Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [Die richtige Dimensionierung ermitteln, wenn Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP03 Erfassen von Datenverarbeitungsmetriken
<a name="perf_compute_hardware_collect_compute_related_metrics"></a>

 Erfassen und verfolgen Sie Datenverarbeitungsmetriken, um die Leistung der Rechenressourcen besser zu verstehen und deren Leistung und Auslastung zu verbessern. 

 **Typische Anti-Muster:** 
+  Sie suchen ausschließlich manuell mithilfe von Protokolldateien nach Metriken.  
+  Sie verwenden nur die Standardmetriken, die von der Überwachungssoftware aufgezeichnet wurden. 
+  Sie überprüfen Metriken nur dann, wenn ein Problem vorliegt. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Erfassung von Leistungsmetriken hilft Ihnen dabei, die Anwendungsleistung an den Geschäftsanforderungen auszurichten, um sicherzustellen, dass Sie Ihre Workload-Anforderungen erfüllen. Es kann Ihnen auch dabei helfen, die Ressourcenleistung und -nutzung im Workload kontinuierlich zu verbessern. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Cloud-Workloads können große Mengen an Daten generieren, wie Metriken, Protokolle und Ereignisse. In der AWS Cloud ist die Erfassung von Metriken ein entscheidender Schritt zur Verbesserung von Sicherheit, Kosteneffizienz, Leistung und Nachhaltigkeit. AWS stellt eine Vielzahl von Leistungsmetriken bereit und nutzt dazu Überwachungsservices wie [Amazon CloudWatch,](https://aws.amazon.com/cloudwatch/) um Ihnen wertvolle Einblicke zu bieten. Metriken wie CPU-Nutzung, Arbeitsspeicherauslastung, Datenträger-E/A sowie eingehender und ausgehender Netzwerkverkehr können Einblick in die Nutzung bzw. in Leistungsengpässe bieten. Nutzen Sie diese Kennzahlen im Rahmen eines datengestützten Ansatzes, der Ihnen die aktive Feinabstimmung und Optimierung der vom Workload genutzten Ressourcen ermöglicht.  Im Idealfall sollten Sie alle Metriken zu Ihren Datenverarbeitungsressourcen auf einer einzigen Plattform erfassen und Aufbewahrungsrichtlinien implementieren, um Kosten- und Betriebsziele zu unterstützen. 

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Identifizieren Sie, welche Leistungsmetriken für den Workload relevant sind. Sie sollten Metriken zur Ressourcennutzung und zum Betrieb des Cloud-Workloads (wie Reaktionszeit und Durchsatz) erfassen. 

   1.  [Amazon EC2-Standardmetriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) 

   1.  [Amazon ECS-Standardmetriken](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cloudwatch-metrics.html) 

   1.  [Amazon EKS-Standardmetriken](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/kubernetes-eks-metrics.html) 

   1.  [Lambda-Standardmetriken](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-access-metrics.html) 

   1.  [Amazon EC2-Arbeitsspeicher- und -Datenträgermetriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/mon-scripts.html) 

1.  Wählen Sie die richtige Protokollierungs- und Überwachungslösung für den Workload aus und richten Sie sie ein. 

   1.  [AWS-native Beobachtbarkeit](https://catalog.workshops.aws/observability/en-US/aws-native) 

   1.  [AWS Distro for OpenTelemetry](https://aws.amazon.com/otel/) 

   1.  [Amazon Managed Service for Prometheus](https://docs.aws.amazon.com/grafana/latest/userguide/prometheus-data-source.html) 

1.  Definieren Sie den erforderlichen Filter und die erforderliche Aggregation für die Metriken auf der Grundlage Ihrer Workload-Anforderungen. 

   1.  [Quantifizieren benutzerdefinierter Anwendungsmetriken mit Amazon CloudWatch Logs und Metrikfiltern](https://aws.amazon.com/blogs/mt/quantify-custom-application-metrics-with-amazon-cloudwatch-logs-and-metric-filters/) 

   1.  [Erfassen benutzerdefinierter Metriken mit Amazon CloudWatch und strategischer Markierung](https://aws.amazon.com/blogs/infrastructure-and-automation/collect-custom-metrics-with-amazon-cloudwatch-strategic-tagging/) 

1.  Konfigurieren Sie Richtlinien zur Datenaufbewahrung für Ihre Metriken so, dass sie Ihren Sicherheits- und Betriebszielen entsprechen. 

   1.  [Standard-Datenaufbewahrung für CloudWatch-Metriken](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Standard-Datenaufbewahrung für CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

1.  Erstellen Sie bei Bedarf Alarme und Benachrichtigungen für Ihre Metriken, damit Sie proaktiv auf leistungsbezogene Probleme reagieren können. 

   1.  [Alarme für benutzerdefinierte Metriken mit der Amazon CloudWatch-Erkennung von Unregelmäßigkeiten erstellen](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/create-alarms-for-custom-metrics-using-amazon-cloudwatch-anomaly-detection.html) 

   1.  [Metriken und Alarmen für bestimmte Webseiten mit Amazon CloudWatch RUM erstellen](https://aws.amazon.com/blogs/mt/create-metrics-and-alarms-for-specific-web-pages-amazon-cloudwatch-rum/) 

1.  Verwenden Sie die Automatisierung, um Ihre Metrik- und Protokollaggregationsagenten bereitzustellen. 

   1.  [AWS Systems Manager-Automatisierung](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html?ref=wellarchitected) 

   1.  [OpenTelemetry Collector](https://aws-otel.github.io/docs/getting-started/collector) 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon CloudWatch-Dokumentation](https://docs.aws.amazon.com/cloudwatch/index.html?ref=wellarchitected) 
+  [Erfassen von Metriken und Protokollen aus Amazon EC2-Instances und On-Premises-Servern mit dem CloudWatch Agent](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Zugriff auf Amazon CloudWatch Logs für AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-logs.html?ref=wellarchitected) 
+  [Verwenden von CloudWatch Logs mit Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/using_cloudwatch_logs.html?ref=wellarchitected) 
+  [Veröffentlichen von benutzerdefinierten Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html?ref=wellarchitected) 
+  [AWS Answers: Zentralisierte Protokollierung](https://aws.amazon.com/answers/logging/centralized-logging/?ref=wellarchitected) 
+  [CloudWatch-Services, die AWS-Metriken veröffentlichen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CW_Support_For_AWS.html?ref=wellarchitected) 
+  [Überwachen von Amazon EKS auf AWS Fargate](https://aws.amazon.com/blogs/containers/monitoring-amazon-eks-on-aws-fargate-using-prometheus-and-grafana/) 

 **Zugehörige Videos:** 
+  [Verwaltung der Anwendungsleistung in AWS](https://www.youtube.com/watch?v=5T4stR-HFas&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [Stufe 100: Überwachung mit CloudWatch-Dashboards](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [Stufe 100: Überwachen einer Windows-EC2-Instance mit CloudWatch-Dashboards](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_windows_ec2_cloudwatch/) 
+  [Stufe 100: Überwachen einer Amazon-Linux-EC2-Instance mit CloudWatch-Dashboards](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_linux_ec2_cloudwatch/) 

# PERF02-BP04 Konfigurieren und richtiges Dimensionieren von Datenverarbeitungsressourcen
<a name="perf_compute_hardware_configure_and_right_size_compute_resources"></a>

 Konfigurieren und passen Sie die Größe der Datenverarbeitungsressourcen so an, dass sie den Leistungsanforderungen des Workloads entsprechen, und vermeiden Sie zu wenig oder zu stark ausgelastete Ressourcen. 

 **Typische Anti-Muster:** 
+  Sie ignorieren Ihre Workload-Leistungsanforderungen, was zu über- oder unterdimensionierten Datenverarbeitungsressourcen führt. 
+  Sie wählen nur die größte oder kleinste verfügbare Instance für alle Workloads aus. 
+  Sie verwenden nur eine Instance-Familie, um die Verwaltung zu vereinfachen. 
+  Sie ignorieren Empfehlungen von AWS Cost Explorer oder Compute Optimizer zur richtigen Dimensionierung. 
+  Sie bewerten den Workload nicht erneut auf die Eignung neuer Instance-Typen. 
+  Sie zertifizieren nur eine kleine Anzahl von Instance-Konfigurationen für Ihre Organisation. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die richtige Dimensionierung der Datenverarbeitungsressourcen gewährleistet einen optimalen Betrieb in der Cloud, indem eine Über- und Unterdimensionierung von Ressourcen vermieden wird. Die richtige Dimensionierung der Datenverarbeitungsressourcen führt in der Regel zu einer besseren Leistung und einem besseren Kundenerlebnis bei gleichzeitiger Senkung der Kosten. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die richtige Dimensionierung ermöglicht es Organisationen, ihre Cloud-Infrastruktur effizient und kostengünstig zu betreiben und gleichzeitig ihre Geschäftsanforderungen zu erfüllen. Eine zu hohe Bereitstellung von Cloud-Ressourcen kann zu zusätzlichen Kosten führen, während eine unzureichende Bereitstellung zu einer schlechten Leistung und einem negativen Kundenerlebnis führen kann. AWS bietet Tools wie [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) und [AWS Trusted Advisor,](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) die historische Daten verwenden, um Empfehlungen zur richtigen Dimensionierung Ihrer Rechenressourcen abzugeben. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Wählen Sie eine Instance, die am besten zu Ihren Anforderungen passt: 
  +  [How do I choose the appropriate Amazon EC2 instance type for my workload? (Wie wähle ich einen geeigneten EC2-Instance-Typ für meinen Workload aus?)](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
  +  [Attribute-based instance type selection for Amazon EC2 Fleet (Attributbasierte Auswahl des Instance-Typs für die EC2 Fleet)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-fleet-attribute-based-instance-type-selection.html) 
  +  [Erstellen Sie eine Auto Scaling-Gruppe unter Verwendung einer attributbasierten Auswahl des Instance-Typs.](https://docs.aws.amazon.com/autoscaling/ec2/userguide/create-asg-instance-type-requirements.html) 
  +  [Optimieren Ihrer Kubernetes-Datenverarbeitungskosten mit der Karpenter-Konsolidierung](https://aws.amazon.com/blogs/containers/optimizing-your-kubernetes-compute-costs-with-karpenter-consolidation/) 
+  Analysieren Sie die verschiedenen Leistungsmerkmale Ihrer Workload und bewerten Sie, wie sich diese auf Arbeitsspeicher, Netzwerk und CPU-Auslastung auswirken. Wählen Sie anhand dieser Daten die für das Profil und die Leistungsziele des Workloads am besten geeigneten Ressourcen aus. 
+  Überwachen Sie Ihren Ressourcenverbrauch mithilfe von AWS-Überwachungstools wie Amazon CloudWatch. 
+  Wählen Sie die richtige Konfiguration für die Datenverarbeitungsressource aus. 
  +  Prüfen Sie für kurz andauernde Workloads [Amazon CloudWatch-Instance-Metriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) wie die `CPUUtilization,` um festzustellen, ob die Instance zu wenig oder zu stark ausgelastet ist. 
  +  Prüfen Sie für stabile Workloads in regelmäßigen Intervallen AWS-Dimensionierungstools wie etwa AWS Compute Optimizer und AWS Trusted Advisor, um Möglichkeiten zur Optimierung und zur korrekten Dimensionierung der Datenverarbeitungsressource zu erkennen. 
    +  [Well-Architected Lab – Empfehlungen zur Dimensionierung ](https://wellarchitectedlabs.com/cost/100_labs/100_aws_resource_optimization/) 
    +  [Well-Architected Lab – Dimensionierung mit Compute Optimizer ](https://wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/) 
+  Testen Sie Konfigurationsänderungen in einer Nicht-Produktionsumgebung, bevor Sie sie in einer Live-Umgebung implementieren. 
+  Bewerten Sie neue Datenverarbeitungsangebote und vergleichen Sie sie mit den Anforderungen Ihres Workloads. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/) 
+  [Amazon EC2-Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Steuerung des Prozessorzustands für Ihre Amazon EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Zugehörige Videos:** 
+  [Grundlagen für Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [ML-Modelle für Inferenz mit hoher Leistung und niedrigen Kosten bereitstellen](https://www.youtube.com/watch?v=4FqHt5bmS2o) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+  [Vereinfachung der Datenverarbeitung zur Förderung von Innovationen mit Serverless-Tools](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 

 **Zugehörige Beispiele:** 
+  [Die richtige Dimensionierung ermitteln, wenn Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP05 Dynamisches Skalieren von Datenverarbeitungsressourcen
<a name="perf_compute_hardware_scale_compute_resources_dynamically"></a>

 Nutzen Sie die Elastizität der Cloud, um die Datenverarbeitungsressourcen dynamisch nach oben oder unten zu skalieren, um Ihren Bedürfnissen zu entsprechen und eine Über- oder Unterdimensionierung von Kapazitäten für den Workload zu vermeiden. 

 **Typische Anti-Muster:** 
+  Sie reagieren auf Alarme, indem Sie die Kapazität manuell erhöhen. 
+  Sie verwenden dieselben Dimensionierungsrichtlinien (in der Regel statische Infrastruktur) wie bei On-Premises. 
+  Sie belassen die erhöhte Kapazität nach dem Hochskalieren, anstatt wieder herunterzuskalieren. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch das Konfigurieren und Testen der Elastizität von Rechenressourcen können Sie Geld sparen, Leistungsbenchmarks einhalten und die Zuverlässigkeit verbessern, wenn sich der Datenverkehr ändert. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 AWS bietet Ihnen die Flexibilität, Ressourcen dynamisch durch verschiedene Skalierungsmechanismen nach oben oder unten zu skalieren, um Bedarfsänderungen gerecht zu werden. In Kombination mit Datenverarbeitungsmetriken ermöglicht eine dynamische Skalierung Workloads, automatisch auf Änderungen zu reagieren und die optimalen Datenverarbeitungsressourcen zu nutzen, um die Zielvorgabe zu erreichen. 

 Sie können verschiedene Ansätze nutzen, um das Angebot an Ressourcen auf die Nachfrage abzustimmen. 
+  **Ansatz zur Zielverfolgung**: Überwachen Sie Ihre Skalierungsmetriken und erhöhen oder verringern Sie die Kapazität automatisch Ihrem Bedarf entsprechend. 
+  **Vorausschauende Skalierung**: Skalieren Sie in Erwartung täglicher und wöchentlicher Trends. 
+  **Zeitplanbasierter Ansatz**: Legen Sie Ihren eigenen Skalierungszeitplan entsprechend vorhersehbaren Laständerungen fest. 
+  **Skalierung von Services**: Wählen Sie Services (wie Serverless), die auf automatische Skalierung ausgelegt sind. 

 Sie müssen sicherstellen, dass Workload-Bereitstellungen sowohl Hoch- als auch Herunterskalierungsereignisse verarbeiten können. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Datenverarbeitungs-Instances, Container und Funktionen bieten Mechanismen für Elastizität, sei es in Kombination mit AutoScaling oder als Merkmal des Service. Hier finden Sie einige Beispiele für automatische Skalierungsmechanismen:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_compute_hardware_scale_compute_resources_dynamically.html)
+  Das Skalieren wird häufig im Zusammenhang mit Datenverarbeitungsservices wie Amazon EC2-Instances oder AWS Lambda-Funktionen genannt. Denken Sie auch daran, die Konfiguration von nicht Daten verarbeitenden Services in Betracht zu ziehen, z. B. [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/auto-scaling.html) , um die Nachfrage zu decken. 
+  Stellen Sie sicher, dass die Metriken für die Skalierung den Merkmalen des bereitgestellten Workloads entsprechen. Wenn Sie eine Anwendung zur Video-Transkodierung bereitstellen, wird eine CPU-Auslastung von 100 % erwartet, weshalb dies nicht die Hauptmetrik sein sollte. Verwenden Sie stattdessen die Tiefe der Aufgabenwarteschlange für die Transkodierung. Sie können eine [benutzerdefinierte Metrik](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) für Ihre Skalierungsrichtlinie verwenden, falls erforderlich. Beachten Sie zur Auswahl der geeigneten Metriken die folgenden Hinweise zu Amazon EC2: 
  +  Es sollte sich um eine gültige Nutzungsmetrik handeln, die beschreibt, wie stark eine Instance genutzt wird. 
  +  Der Metrikwert muss proportional zur Anzahl der Instances in der Auto Scaling-Gruppe steigen oder sinken. 
+  Vergewissern Sie sich, dass Sie [dynamische Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) anstelle von [manueller Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) für Ihre Auto Scaling-Gruppe verwenden. Weiterhin empfehlen wir, dass Sie [Zielverfolgungs-Skalierungsrichtlinien](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) für Ihre dynamische Skalierung verwenden. 
+  Prüfen Sie, ob Workload-Bereitstellungen mit beiden Skalierungen (nach oben und unten) umgehen können. Beispielsweise können Sie [den Aktivitätsverlauf](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) verwenden, um eine Skalierungsaktivität für eine Auto Scaling-Gruppe zu verifizieren. 
+  Evaluieren Sie Ihren Workload auf vorhersagbare Muster und skalieren Sie proaktiv, wenn Sie vorhergesagte und geplante Änderungen der Nachfrage erwarten. Mit der prädiktiven Skalierung können Sie die Notwendigkeit einer Überbereitstellung von Kapazität vermeiden. Weitere Details finden Sie unter [Vorausschauende Skalierung mit Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/) 
+  [Amazon EC2-Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Steuerung des Prozessorzustands für Ihre Amazon EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 
+  [Detaillierte Einblicke in Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 
+  [Vorstellung von Karpenter – Open-Source-Kubernetes-Cluster-Autoscaler mit hoher Leistung](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 

 **Zugehörige Videos:** 
+  [Grundlagen für Amazon EC2](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+  [Build a cost-, energy-, and resource-efficient compute environment (Entwickeln einer kosten-, energie- und ressourceneffizienten Datenverarbeitungsumgebung)](https://www.youtube.com/watch?v=8zsC5e1eLCg) 

 **Zugehörige Beispiele:** 
+  [Amazon EC2 Auto Scaling-Gruppenbeispiele](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Implementierung von Autoscaling mit Karpenter](https://www.eksworkshop.com/beginner/085_scaling_karpenter/) 

# PERF02-BP06 Verwenden von optimierten hardwarebasierten Datenverarbeitungsbeschleunigern
<a name="perf_compute_hardware_compute_accelerators"></a>

 Verwenden Sie Hardwarebeschleuniger, um bestimmte Funktionen effizienter auszuführen als CPU-basierte Alternativen. 

 **Typische Anti-Muster:** 
+  Sie haben im Workload keine Benchmark einer universellen Instance verglichen mit einer speziell entwickelten Instance durchgeführt, die eine höhere Leistung und niedrigere Kosten bieten kann. 
+  Sie verwenden hardwarebasierte Datenverarbeitungsbeschleuniger für Aufgaben, die mithilfe von CPU-basierten Alternativen effizienter sein können. 
+  Sie überwachen die GPU-Nutzung nicht. 

**Vorteile der Nutzung dieser bewährten Methode:** Durch die Verwendung hardwarebasierter Beschleuniger wie Grafikprozessoren (GPUs) und Field Programmable Gate Arrays (FPGAs) können Sie bestimmte Verarbeitungsfunktionen effizienter ausführen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Beschleunigte Computing-Instances bieten Zugriff auf hardwarebasierte Datenverarbeitungsbeschleuniger wie GPUs und FPGAs. Diese Hardwarebeschleuniger führen bestimmte Funktionen wie die Grafikverarbeitung oder Datenmusterzuordnung effizienter aus als CPU-basierte Alternativen. Viele beschleunigte Workloads, wie Rendering, Transcodierung und Machine Learning, sind sehr variabel im Bezug auf die Ressourcennutzung. Betreiben Sie diese Hardware nur so lange wie nötig und nehmen Sie sie automatisch außer Betrieb, wenn sie nicht mehr benötigt wird, um die allgemeine Leistungseffizienz zu verbessern. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Identifizieren Sie, welche [beschleunigten Computing-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html) Ihren Anforderungen entsprechen. 
+  Nutzen Sie für Machine-Learning-Workloads spezielle Hardware, die auf Ihren Workload abgestimmt ist, z. B. [AWS Trainium](https://aws.amazon.com/machine-learning/trainium/), [AWS Inferentia](https://aws.amazon.com/machine-learning/inferentia/)und [Amazon EC2 DL1](https://aws.amazon.com/ec2/instance-types/dl1/). AWS Inferentia-Instances wie Inf2-Instances [bieten im Vergleich zu vergleichbaren Amazon EC2-Instances eine um bis zu 50 % bessere Leistung pro Watt ](https://aws.amazon.com/machine-learning/inferentia/). 
+  Erfassen Sie Nutzungsmetriken für Ihre beschleunigten Computing-Instances. Sie können beispielsweise den CloudWatch-Agenten verwenden, um Metriken wie `utilization_gpu` und `utilization_memory` für Ihre GPUs zu erfassen, siehe auch [Erfassen von NVIDIA-GPU-Metriken mit Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-NVIDIA-GPU.html). 
+  Optimieren Sie Code, Netzwerkbetrieb und die Einstellungen von Hardwarebeschleunigern, um sicherzustellen, dass die zugrunde liegende Hardware optimal genutzt wird. 
  +  [Optimieren der GPU-Einstellungen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/optimize_gpu.html) 
  +  [GPU-Überwachung und -Optimierung im Deep-Learning-AMI](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-gpu.html) 
  +  [Optimizing I/O for GPU performance tuning of deep learning training in Amazon SageMaker AI (Optimieren von E/A für die GPU-Leistungsoptimierung von Deep Learning-Training in Amazon SageMaker)](https://aws.amazon.com/blogs/machine-learning/optimizing-i-o-for-gpu-performance-tuning-of-deep-learning-training-in-amazon-sagemaker/) 
+  Verwenden Sie die aktuellen leistungsstarken Bibliotheken und GPU-Treiber. 
+  Automatisieren Sie die Freigabe nicht genutzter GPU-Instances. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [GPU-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#gpu-instances) 
+  [Instances mit AWS Trainium](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-trainium-instances) 
+  [Instances mit AWS Inferentia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-inferentia-instances) 
+  [Let's Architect\$1 Architecting with custom chips and accelerators (Erstellen von Architekturen mit benutzerdefinierten Chips und Beschleunigern)](https://aws.amazon.com/blogs/architecture/lets-architect-custom-chips-and-accelerators/) 
+  [Accelerated Computing](https://aws.amazon.com/ec2/instance-types/#Accelerated_Computing) 
+  [Amazon EC2-VT1-Instances](https://aws.amazon.com/ec2/instance-types/vt1/) 
+  [How do I choose the appropriate Amazon EC2 instance type for my workload? (Wie wähle ich einen geeigneten EC2-Instance-Typ für meinen Workload aus?)](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
+  [Choose the best AI accelerator and model compilation for computer vision inference with Amazon SageMaker AI (Auswählen des besten KI-Beschleunigers und der besten Modellkompilierung für Computer Vision Inference mit Amazon SageMaker)](https://aws.amazon.com/blogs/machine-learning/choose-the-best-ai-accelerator-and-model-compilation-for-computer-vision-inference-with-amazon-sagemaker/) 

 **Zugehörige Videos:** 
+  [How to select Amazon EC2 GPU instances for deep learning (Auswählen von EC2-GPU-Instances für Deep Learning)](https://www.youtube.com/watch?v=4bVrIbgGWEA&ab_channel=AWSEvents) 
+  [Deploying Cost-Effective Deep Learning Inference (Bereitstellen von kosteneffizienten Deep Learning Inference)](https://www.youtube.com/watch?v=WiCougIDRsw&ab_channel=AWSOnlineTechTalks) 

# Datenverwaltung
<a name="a-data-management"></a>

# LEIST 3. Wie speichern und verwalten Sie die Daten in Ihrem Workload und wie greifen Sie darauf zu?
<a name="perf-03"></a>

 Die optimale Datenverwaltungslösung für ein bestimmtes System hängt vom Datentyp (Block, Datei oder Objekt), den Zugriffsmustern (zufällig oder sequenziell), dem erforderlichen Durchsatz, der Zugriffshäufigkeit (online, offline, Archiv), der Aktualisierungshäufigkeit (WORM, dynamisch) sowie den Verfügbarkeits- und Lebensdaueranforderungen ab. Well-Architected-Workloads verwenden zweckgebundene Daten-Stores, die verschiedene Funktionen zur Verbesserung der Leistung ermöglichen. 

**Topics**
+ [PERF03-BP01 Verwenden eines speziell entwickelten Datenspeichers, der die Datenzugriffs- und Speicheranforderungen am besten unterstützt](perf_data_use_purpose_built_data_store.md)
+ [PERF03-BP02 Bewerten verfügbarer Konfigurationsoptionen für den Datenspeicher](perf_data_evaluate_configuration_options_data_store.md)
+ [PERF03-BP03 Erfassen und Aufzeichnen von Metriken zur Datenspeicherleistung](perf_data_collect_record_data_store_performance_metrics.md)
+ [PERF03-BP04 Implementieren von Strategien zur Verbesserung der Abfrageleistung im Datenspeicher](perf_data_implement_strategies_to_improve_query_performance.md)
+ [PERF03-BP05 Implementieren von Datenzugriffsmustern, die Caching nutzen](perf_data_access_patterns_caching.md)

# PERF03-BP01 Verwenden eines speziell entwickelten Datenspeichers, der die Datenzugriffs- und Speicheranforderungen am besten unterstützt
<a name="perf_data_use_purpose_built_data_store"></a>

 Machen Sie sich mit Datenmerkmalen (wie Freigabe, Größe, Cache-Größe, Zugriffsmuster, Latenz, Durchsatz und Persistenz von Daten) vertraut, um die richtigen, speziell entwickelten Datenspeicher (Speicher oder Datenbank) für den Workload auszuwählen. 

 **Typische Anti-Muster:** 
+  Sie halten an einem Datenspeicher fest, da es interne Erfahrungen und Wissen über eine bestimmte Datenbanklösung gibt. 
+  Sie gehen davon aus, dass für alle Workloads ähnliche Datenspeicher- und Zugriffsanforderungen gelten. 
+  Sie haben keinen Datenkatalog zur Inventarisierung Ihrer Datenbestände eingeführt. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie die Datenmerkmale und -anforderungen verstehen, können Sie die effizienteste und leistungsfähigste Speichertechnologie ermitteln, die für Ihre Workload-Anforderungen geeignet ist. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Stellen Sie bei der Auswahl und Implementierung von Datenspeicher sicher, dass die Abfrage-, Skalierungs- und Speichermerkmale die Workload-Datenanforderungen unterstützen. AWS bietet zahlreiche Datenspeicher- und Datenbanktechnologien, darunter Blockspeicher, Objektspeicher, Streaming-Speicher, Dateisystem-, relationale, Schlüsselwert-, Dokument-, In-Memory-, Graph-, Zeitreihen- und Ledger-Datenbanken. Jede Datenverwaltungslösung hat verfügbare Optionen und Konfigurationen, um Ihre Anwendungsfälle und Datenmodelle zu unterstützen. Wenn Sie die Merkmale und Anforderungen der Daten verstehen, können Sie sich von monolithischer Speichertechnologie und restriktiven Einheitsansätzen lösen und sich auf eine angemessene Datenverwaltung konzentrieren. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Führen Sie eine Bestandsaufnahme der verschiedenen Datentypen durch, die in Ihrem Workload vorhanden sind. 
+  Verstehen und dokumentieren Sie Datenmerkmale und -anforderungen, einschließlich: 
  +  Datentyp (strukturiert, semistrukturiert, relational) 
  +  Datenvolumen und -wachstum 
  +  Lebensdauer von Daten: anhaltend, flüchtig, vorübergehend 
  +  Anforderungen an AKID (Atomarität, Konsistenz, Isolation, Dauerhaftigkeit) 
  +  Datenzugriffsmuster (leseintensiv oder schreibintensiv) 
  +  Latenz 
  +  Durchsatz 
  +  IOPS (Eingabe-/Ausgabevorgänge pro Sekunde) 
  +  Aufbewahrungsfrist der Daten 
+  Erfahren Sie mehr über die verschiedenen Datenspeicher, die für Ihren Workload in AWS verfügbar sind und Ihre Datenmerkmale erfüllen können (wie beschrieben unter [PERF01-BP01 Informieren über verfügbare Cloud-Services und -Funktionen](perf_architecture_understand_cloud_services_and_features.md)). Einige Beispiele für AWS-Speichertechnologien und ihre Schlüsselmerkmale sind:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_data_use_purpose_built_data_store.html)
+  Wenn Sie eine Datenplattform aufbauen, nutzen Sie [moderne Datenarchitektur](https://aws.amazon.com/big-data/datalakes-and-analytics/modern-data-architecture/) in AWS, um Ihren Data Lake, Ihr Data Warehouse und Ihre speziell entwickelten Datenspeicher zu integrieren. 
+  Die wichtigsten Fragen, die Sie bei der Auswahl eines Datenspeichers für Ihren Workload berücksichtigen müssen, lauten wie folgt:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_data_use_purpose_built_data_store.html)
+  Führen Sie Experimente und Benchmarking in einer Nicht-Produktionsumgebung durch, um herauszufinden, welcher Datenspeicher Ihre Workload-Anforderungen erfüllen kann. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon EBS Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Amazon EC2 Speicher](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS: Leistung von Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Leistung von Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Leistung von Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+  [Amazon Glacier: Amazon Glacier-Dokumentation](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3: Überlegungen zu Anfragerate und Leistung](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/) 
+  [Amazon EBS -E/A-Merkmale](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 
+  [Cloud-Datenbanken mit AWS ](https://aws.amazon.com/products/databases/?ref=wellarchitected) 
+  [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Amazon Redshift-Leistung ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Die besten 10 Leistungstipps für Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html?ref=wellarchitected) 
+  [Zwischen Amazon EC2 und Amazon RDS auswählen](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-sql-server/comparison.html) 
+ [ Bewährte Methoden für die Implementierung von Amazon ElastiCache ](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/BestPractices.html)

 **Zugehörige Videos:** 
+  [Umfassende Informationen zu Amazon EBS](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Ihre Speicherleistung mit Amazon S3 optimieren](https://www.youtube.com/watch?v=54AhwfME6wI) 
+ [Apps mit speziell entwickelten Datenbanken modernisieren](https://www.youtube.com/watch?v=V-DiplATdi0)
+ [ Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise ](https://www.youtube.com/watch?v=uaQEGLKtw54)
+ [ Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Zugehörige Beispiele:** 
+  [Amazon EFS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Amazon EBS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Amazon EFS-Dienstprogramme](https://github.com/aws/efs-utils) 
+  [Amazon EBS – automatische Skalierung](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Amazon S3-Beispiele](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 
+  [Optimieren von Datenmustern mithilfe von Amazon Redshift Data Sharing](https://wellarchitectedlabs.com/sustainability/300_labs/300_optimize_data_pattern_using_redshift_data_sharing/) 
+  [Datenbankmigrationen](https://github.com/aws-samples/aws-database-migration-samples) 
+  [MS SQL Server – AWS Database Migration Service (AWS DMS)-Replikationsdemo](https://github.com/aws-samples/aws-dms-sql-server) 
+  [Praktischer Workshop für die Datenbankmodernisierung](https://github.com/aws-samples/amazon-rds-purpose-built-workshop) 
+  [Amazon Neptune Samples](https://github.com/aws-samples/amazon-neptune-samples) 

# PERF03-BP02 Bewerten verfügbarer Konfigurationsoptionen für den Datenspeicher
<a name="perf_data_evaluate_configuration_options_data_store"></a>

 Machen Sie sich mit den verschiedenen Funktionen und Konfigurationsoptionen vertraut, die für Ihre Datenspeicher verfügbar sind, und bewerten Sie sie, um Speicherplatz und Leistung für Ihren Workload zu optimieren. 

 **Typische Anti-Muster:** 
+  Sie verwenden nur einen Speichertyp, z. B. Amazon EBS, für alle Workloads. 
+  Sie verwenden bereitgestellte IOPS für alle Workloads, ohne reale Tests auf allen Speicherebenen durchzuführen. 
+  Ihnen fehlt das Bewusstsein für die Wahl der Konfigurationsoptionen der Datenverwaltungslösung. 
+  Sie verlassen sich ausschließlich auf das Vergrößern der Instance-Größe, ohne andere verfügbare Konfigurationsoptionen in Betracht zu ziehen. 
+  Sie testen die Skalierungsoptionen Ihres Datenspeichers nicht. 

 **Vorteile der Nutzung dieser bewährten Methode:** Indem Sie Datenspeicherkonfigurationen erkunden und mit ihnen experimentieren, können Sie möglicherweise Infrastrukturkosten senken, die Leistung verbessern und den Aufwand zur Verwaltung Ihrer Workloads verringern. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Für einen Workload können je nach Datenspeicher- und Zugriffsanforderungen ein oder mehrere Datenspeicher verwendet werden. Zur Optimierung der Leistungseffizienz und Kosten müssen Sie Datenzugriffsmuster auswerten, um die entsprechenden Datenspeicherkonfigurationen zu bestimmen. Während Sie die Datenspeicheroptionen erkunden, sollten Sie unterschiedliche Aspekte in Betracht ziehen. Dazu zählen Speicheroptionen, Arbeitsspeicher, Rechenvorgänge, Read Replica, Konsistenzanforderungen, Verbindungs-Pooling und Caching-Optionen. Experimentieren Sie mit diesen unterschiedlichen Konfigurationsoptionen, um Metriken zur Leistungseffizienz zu verbessern. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Verstehen Sie die aktuellen Konfigurationen (wie Instance-Typ, Speichergröße oder Version der Datenbank-Engine) des Datenspeichers. 
+  Lesen Sie die AWS-Dokumentation und die bewährten Methoden, um mehr über empfohlene Konfigurationsoptionen zu erfahren, mit denen Sie die Leistung für den Datenspeicher verbessern können. Die wichtigsten Datenspeicheroptionen, die Sie in Betracht ziehen sollten, sind die folgenden:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_data_evaluate_configuration_options_data_store.html)
+  Führen Sie Experimente und Benchmarking in einer Nicht-Produktionsumgebung durch, um herauszufinden, welche Konfigurationsoption Ihre Workload-Anforderungen erfüllen kann. 
+  Nachdem Sie experimentiert haben, planen Sie die Migration und überprüfen Sie die Leistungsmetriken. 
+  Verwenden Sie Tools zur AWS-Überwachung (wie [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/)) und Optimierung (wie [Amazon S3 Storage Lens](https://aws.amazon.com/s3/storage-lens/)) zur kontinuierlichen Optimierung Ihres Datenspeichers anhand realer Nutzungsmuster. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/?ref=wellarchitected) 
+  [Amazon EBS Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Amazon EC2 Speicher](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS: Leistung von Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Leistung von Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Leistung von Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+  [Amazon Glacier: Amazon Glacier-Dokumentation](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3: Überlegungen zu Anfragerate und Leistung](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/?ref=wellarchitected) 
+  [Amazon EBS -E/A-Merkmale](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 
+  [Cloud-Datenbanken mit AWS ](https://aws.amazon.com/products/databases/?ref=wellarchitected) 
+  [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Amazon Redshift-Leistung ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Die besten 10 Leistungstipps für Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html?ref=wellarchitected) 

 **Zugehörige Videos:** 
+  [Umfassende Informationen zu Amazon EBS](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Ihre Speicherleistung mit Amazon S3 optimieren](https://www.youtube.com/watch?v=54AhwfME6wI) 
+ [Apps mit speziell entwickelten Datenbanken modernisieren](https://www.youtube.com/watch?v=V-DiplATdi0)
+ [ Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise ](https://www.youtube.com/watch?v=uaQEGLKtw54)
+ [ Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Zugehörige Beispiele:** 
+  [Amazon EFS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Amazon EBS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Amazon EFS-Dienstprogramme](https://github.com/aws/efs-utils) 
+  [Amazon EBS – automatische Skalierung](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Amazon S3-Beispiele](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 
+  [Amazon DynamoDB-Beispiele](https://github.com/aws-samples/aws-dynamodb-examples) 
+  [Beispiele von AWS-Datenbankmigration](https://github.com/aws-samples/aws-database-migration-samples) 
+  [Workshop für die Datenbankmodernisierung](https://github.com/aws-samples/amazon-rds-purpose-built-workshop) 
+  [Arbeiten mit Parametern auf Ihrem Amazon RDS für Postgress DB](https://github.com/awsdocs/amazon-rds-user-guide/blob/main/doc_source/Appendix.PostgreSQL.CommonDBATasks.Parameters.md) 

# PERF03-BP03 Erfassen und Aufzeichnen von Metriken zur Datenspeicherleistung
<a name="perf_data_collect_record_data_store_performance_metrics"></a>

 Verfolgen und zeichnen Sie relevante Leistungsmetriken für Ihren Datenspeicher auf, um zu verstehen, wie Ihre Datenverwaltungslösungen funktionieren. Mithilfe dieser Metriken können Sie Ihren Datenspeicher optimieren, überprüfen, ob Ihre Workload-Anforderungen erfüllt werden, und sich einen klaren Überblick über die Workload-Leistung verschaffen. 

 **Typische Anti-Muster:** 
+  Sie suchen ausschließlich manuell mithilfe von Protokolldateien nach Metriken. 
+  Sie veröffentlichen Metriken nur in internen Tools, die von Ihrem Team verwendet werden, und Sie haben kein umfassendes Bild Ihres Workloads. 
+  Sie verwenden nur die Standardmetriken, die von der Überwachungssoftware Ihrer Wahl aufgezeichnet wurden. 
+  Sie überprüfen Metriken nur dann, wenn ein Problem vorliegt. 
+  Sie überwachen Metriken nur auf Systemebene und erfassen keine Datenzugriffs- und Nutzungsmetriken. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das Einrichten einer Leistungsbasislinie hilft Ihnen dabei, das normale Verhalten und die Anforderungen von Workloads zu verstehen. Abnorme Muster können schneller identifiziert und behoben werden, was die Leistung und Zuverlässigkeit des Datenspeichers erhöht. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Um die Leistung der Datenspeicher zu überwachen, müssen Sie mehrere Leistungsmetriken über einen bestimmten Zeitraum aufzeichnen. Auf diese Weise können Sie Anomalien erkennen und die Leistung anhand von Geschäftsmetriken messen, um sicherzustellen, dass Sie die Anforderungen Ihres Workloads erfüllen. 

 Metriken sollten das zugrunde liegende System, das den Datenspeicher unterstützt, sowie die Datenbankmetriken enthalten. Die Metriken des zugrunde liegenden Systems können die CPU-Auslastung, den Arbeitsspeicher, den verfügbaren Festplattenspeicher, Festplatten-E/A, das Cache-Trefferverhältnis und Metriken zum eingehenden und ausgehenden Netzwerkdatenverkehr umfassen, während die Datenspeichermetriken die Transaktionen pro Sekunde, die häufigsten Abfragen, die durchschnittlichen Abfrageraten, Antwortzeiten, die Indexauslastung, Tabellenschlösser, Abfragezeitüberschreitungen und die Anzahl offener Verbindungen enthält. Diese Daten sind von entscheidender Bedeutung, um festzustellen, wie leistungsfähig der Workload ist und wie die Datenverwaltungslösung genutzt wird. Nutzen Sie diese Metriken im Rahmen eines datengestützten Ansatzes, der Ihnen die Feinabstimmung und Optimierung der vom Workload genutzten Ressourcen ermöglicht.  

 Nutzen Sie Tools, Bibliotheken und Systeme zum Aufzeichnen von Messungen zur Datenbankleistung. 

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Identifizieren Sie die wichtigsten Leistungsmetriken, die der Datenspeicher verfolgen soll. 

   1.  [Metriken und Dimensionen von Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/metrics-dimensions.html) 

   1.  [Überwachungsmetriken für innerhalb einer Amazon RDS-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitoring.html) 

   1.  [Überwachen der DB-Last mit Performance Insights auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 

   1.  [Überblick über Erweiterte Überwachung](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Monitoring.OS.overview.html) 

   1.  [Metriken und Dimensionen von DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/metrics-dimensions.html) 

   1.  [Überwachen von DynamoDB Accelerator](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DAX.Monitoring.html) 

   1.  [Überwachen von Amazon MemoryDB mit Amazon CloudWatch](https://docs.aws.amazon.com/memorydb/latest/devguide/monitoring-cloudwatch.html) 

   1.  [Welche Metriken sollte ich überwachen?](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/CacheMetrics.WhichShouldIMonitor.html) 

   1.  [Überwachen der Amazon Redshift-Cluster-Leistung](https://docs.aws.amazon.com/redshift/latest/mgmt/metrics.html) 

   1.  [Metriken und Dimensionen von Timestream](https://docs.aws.amazon.com/timestream/latest/developerguide/metrics-dimensions.html) 

   1.  [Amazon CloudWatch-Metriken für Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMonitoring.Metrics.html) 

   1.  [Protokollieren und Überwachen von Amazon Keyspaces (for Apache Cassandra)](https://docs.aws.amazon.com/keyspaces/latest/devguide/monitoring.html) 

   1.  [Überwachen von Amazon Neptune-Ressourcen](https://docs.aws.amazon.com/neptune/latest/userguide/monitoring.html) 

1.  Verwenden Sie eine zugelassene Protokollierungs- und Überwachungslösung, um diese Metriken zu erfassen. [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) lassen sich Kennzahlen aus sämtlichen Ressourcen Ihrer Architektur erfassen. Sie können auch benutzerdefinierte Kennzahlen erfassen und in Oberflächen-, Geschäfts- oder abgeleiteten Kennzahlen veröffentlichen. Richten Sie mit CloudWatch oder mit Lösungen von Drittanbietern Alarme ein, die auf das Überschreiten von Schwellenwerten hinweisen. 

1.  Prüfen Sie, ob die Datenspeicherüberwachung von einer Machine-Learning-Lösung profitieren kann, die Leistungsanomalien erkennt. 

   1.  [Amazon DevOps Guru für Amazon RDS](https://docs.aws.amazon.com/devops-guru/latest/userguide/working-with-rds.overview.how-it-works.html) ermöglicht einen Einblick in Leistungsprobleme und bietet Empfehlungen für Korrekturmaßnahmen. 

1.  Konfigurieren Sie die Datenaufbewahrung in Ihrer Überwachungs- und Protokollierungslösung so, dass sie Ihren Sicherheits- und Betriebszielen entspricht. 

   1.  [Standard-Datenaufbewahrung für CloudWatch-Metriken](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Standard-Datenaufbewahrung für CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Datenbank-Caching](https://aws.amazon.com/caching/database-caching/) 
+  [Die besten 10 Leistungstipps für Amazon Athena](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/) 
+  [Bewährte Methoden für Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html) 
+  [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/) 
+  [Bewährte Methoden für Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html) 
+  [Bewährte Methoden für Amazon Redshift Spectrum](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/) 
+  [Amazon Redshift-Leistung](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html) 
+  [Cloud-Datenbanken mit AWS](https://aws.amazon.com/products/databases/) 
+  [Amazon RDS Performance Insights](https://aws.amazon.com/rds/performance-insights/) 

 **Zugehörige Videos:** 
+  [Speziell entwickelte Datenbanken von AWS](https://www.youtube.com/watch?v=q81TVuV5u28) 
+  [Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise](https://www.youtube.com/watch?v=uaQEGLKtw54) 
+  [Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster](https://www.youtube.com/watch?v=6yqfmXiZTlM) 
+  [Bewährte Methoden für die Überwachung von Redis-Workloads auf Amazon ElastiCache](https://www.youtube.com/watch?v=c-hTMLN35BY&ab_channel=AWSOnlineTechTalks) 

 **Zugehörige Beispiele:** 
+  [Stufe 100: Überwachung mit CloudWatch-Dashboards](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [Framework zur AWS-Datensatzerfassung und Sammlung von Metriken](https://github.com/awslabs/aws-dataset-ingestion-metrics-collection-framework) 
+  [Workshop zur Überwachung von Amazon RDS](https://www.workshops.aws/?tag=Enhanced%20Monitoring) 

# PERF03-BP04 Implementieren von Strategien zur Verbesserung der Abfrageleistung im Datenspeicher
<a name="perf_data_implement_strategies_to_improve_query_performance"></a>

 Implementieren Sie Strategien zur Datenoptimierung und Verbesserung der Datenabfrage, um mehr Skalierbarkeit und eine effizientere Leistung für Ihre Workloads zu erzielen. 

 **Typische Anti-Muster:** 
+  Sie partitionieren keine Daten in Ihrem Datenspeicher. 
+  Sie speichern Daten in nur einem Dateiformat in Ihrem Datenspeicher. 
+  Sie verwenden keine Indizes in Ihrem Datenspeicher. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Optimierung der Daten- und Abfrageleistung führt zu mehr Effizienz, niedrigeren Kosten und einer verbesserten Benutzererfahrung. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Daten- und Abfrageoptimierung sind wichtige Aspekte der Leistungseffizienz in einem Datenspeicher, da sie sich auf die Leistung und Reaktionsfähigkeit des gesamten Cloud-Workloads auswirken. Nicht optimierte Abfragen können zu einem höheren Ressourcenverbrauch und Engpässen führen, wodurch die Gesamteffizienz eines Datenspeichers beeinträchtigt wird. 

Die Datenoptimierung umfasst mehrere Techniken, um eine effiziente Datenspeicherung und einen effizienten Datenzugriff zu gewährleisten. Dies trägt auch dazu bei, die Abfrageleistung in einem Datenspeicher zu verbessern. Zu den wichtigsten Strategien gehören Datenpartitionierung, Datenkomprimierung und Datendenormalisierung, mit denen Daten sowohl für die Speicherung als auch für den Zugriff optimiert werden können.

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Verstehen und analysieren Sie die kritischen Datenabfragen, die in Ihrem Datenspeicher durchgeführt werden. 
+  Identifizieren Sie die langsamen Abfragen in Ihrem Datenspeicher und verwenden Sie Abfragepläne, um den aktuellen Status zu verstehen. 
  +  [Analysieren des Abfrageplans in Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/c-analyzing-the-query-plan.html) 
  +  [Verwenden von EXPLAIN und EXPLAIN ANALYZE in Athena](https://docs.aws.amazon.com/athena/latest/ug/athena-explain-statement.html) 
+  Implementieren Sie Strategien zur Verbesserung der Abfrageleistung. Einige der wichtigsten Strategien sind: 
  +  Verwenden eines [spaltenförmigen Dateiformats](https://docs.aws.amazon.com/athena/latest/ug/columnar-storage.html) (wie Parquet oder ORC). 
  + Komprimieren von Daten im Datenspeicher, um Speicherplatz und E/A-Betrieb zu reduzieren.
  +  Datenpartitionierung zur Aufteilung von Daten in kleinere Teile und zur Reduzierung der Zeit für das Scannen von Daten. 
    + [ Partitionierung von Daten in Athena ](https://docs.aws.amazon.com/athena/latest/ug/partitions.html)
    + [ Partitionen und Datenverteilung ](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.Partitions.html)
  +  Datenindizierung für die gemeinsamen Spalten in der Abfrage. 
  +  Wählen Sie den richtigen Verknüpfungsvorgang für die Abfrage aus. Wenn Sie zwei Tabellen verknüpfen, geben Sie die größere Tabelle auf der linken Seite der Verknüpfung und die kleinere Tabelle auf der rechten Seite der Verknüpfung an. 
  +  Verteilte Caching-Lösung zur Verbesserung der Latenz und zur Reduzierung der Anzahl von Datenbank-E/A-Vorgängen. 
  +  Regelmäßige Wartung wie das Ausführen von Statistiken. 
+  Experimentieren und testen Sie Strategien in einer Nicht-Produktionsumgebung. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Bewährte Methoden für Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Amazon Redshift-Leistung ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Die besten 10 Leistungstipps für Amazon Athena](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [Bewährte Methoden für die Implementierung von Amazon ElastiCache](https://docs.aws.amazon.com/AmazonElastiCache/latest/UserGuide/BestPractices.html) 
+  [Partitionierung von Daten in Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html) 

 **Zugehörige Videos:** 
+  [Optimieren von Datenmustern mithilfe von Amazon Redshift Data Sharing](https://wellarchitectedlabs.com/sustainability/300_labs/300_optimize_data_pattern_using_redshift_data_sharing/) 
+  [Optimieren von Amazon Athena-Abfragen mit neuen Tools zur Abfrageanalyse ](https://www.youtube.com/watch?v=7JUyTqglmNU&ab_channel=AmazonWebServices) 

 **Zugehörige Beispiele:** 
+  [Amazon EFS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 

# PERF03-BP05 Implementieren von Datenzugriffsmustern, die Caching nutzen
<a name="perf_data_access_patterns_caching"></a>

 Implementieren Sie Zugriffsmuster, die vom Daten-Cashing profitieren, damit häufig aufgerufene Daten schnell abgerufen werden können. 

 **Typische Anti-Muster:** 
+  Sie speichern Daten, die sich häufig ändern. 
+  Sie verlassen sich auf zwischengespeicherte Daten, als ob sie dauerhaft gespeichert und immer verfügbar wären. 
+  Sie berücksichtigen nicht die Konsistenz Ihrer zwischengespeicherten Daten. 
+  Sie überwachen die Effizienz Ihrer Caching-Implementierung nicht. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das Speichern von Daten in einem Cache kann die Leselatenz, den Lesedurchsatz, die Benutzererfahrung und die Gesamteffizienz verbessern sowie die Kosten senken. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice**: Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Ein Cache ist eine Software- oder Hardwarekomponente zum Speichern von Daten, damit zukünftige Abfragen derselben Daten schneller oder effizienter verarbeitet werden können. Die in einem Cache gespeicherten Daten können bei Verlust rekonstruiert werden, indem eine frühere Berechnung wiederholt wird oder die Daten aus einem anderen Datenspeicher abgerufen werden. 

 Das Cashing von Daten kann eine der effektivsten Strategien sein, um die allgemeine Anwendungsleistung zu verbessern und die Belastung Ihrer zugrunde liegenden primären Datenquellen zu verringern. Daten können auf mehreren Ebenen in der Anwendung zwischengespeichert werden, z. B. innerhalb der Anwendung, die Remoteanrufe tätigt (als *clientseitiges Caching* bezeichnet) oder indem Sie einen schnellen sekundären Service zum Speichern der Daten verwenden ( *Remote-Caching)*. 

 **Clientseitiges Caching** 

 Beim clientseitigen Caching kann jeder Client (eine Anwendung oder ein Service, die bzw. der den Backend-Datenspeicher abfragt) die Ergebnisse seiner eindeutigen Abfragen lokal für einen bestimmten Zeitraum speichern. So kann die Anzahl der Anfragen an einen Datenspeicher im Netzwerk reduziert werden, da zuerst der lokale Client-Cache überprüft wird. Wenn die Ergebnisse nicht vorhanden sind, kann die Anwendung den Datenspeicher abfragen und diese Ergebnisse lokal speichern. Dieses Muster ermöglicht es jedem Client, Daten am nächstgelegenen Ort (dem Client selbst) zu speichern, was zur geringstmöglichen Latenz führt. Clients können auch weiterhin einige Abfragen bearbeiten, wenn der Backend-Datenspeicher nicht verfügbar ist, wodurch die Verfügbarkeit des Gesamtsystems erhöht wird. 

 Ein Nachteil dieses Ansatzes besteht darin, dass bei Beteiligung mehrerer Clients diese möglicherweise dieselben zwischengespeicherten Daten lokal speichern. Dies führt sowohl zu doppelten Speichervorgängen als auch zu Dateninkonsistenzen zwischen diesen Clients. So kann z. B. ein Client die Ergebnisse einer Abfrage zwischenspeichern und eine Minute später führt ein anderer Client dieselbe Abfrage aus und erhält ein anderes Ergebnis. 

 **Remote-Caching** 

 Zum Lösen des Problems doppelter Daten zwischen Clients kann ein schneller externer Service oder *Remote-Cache* verwendet werden, um die abgefragten Daten zu speichern. Anstatt einen lokalen Datenspeicher zu überprüfen, prüft jeder Client den Remote-Cache, bevor er den Backend-Datenspeicher abfragt. Diese Strategie ermöglicht konsistentere Antworten zwischen den Clients, eine bessere Effizienz der gespeicherten Daten und ein höheres Volumen an zwischengespeicherten Daten, da der Speicherplatz unabhängig von den Clients skaliert wird. 

 Der Nachteil eines Remote-Caches besteht darin, dass das Gesamtsystem möglicherweise eine höhere Latenz aufweist, da ein zusätzlicher Netzwerk-Hop erforderlich ist, um den Remote-Cache zu überprüfen. Das clientseitige Caching kann in Kombination mit dem Remote-Caching verwendet werden, um ein mehrstufiges Caching zu implementieren und die Latenz zu verbessern. 

### Implementierungsschritte
<a name="implementation-steps"></a>

1.  Identifizieren Sie Datenbanken, APIs und Netzwerkservices, die vom Caching profitieren könnten. Services, die hohe Lese-Workloads oder ein hohes Lese-Schreib-Verhältnis aufweisen oder deren Skalierung teuer ist, kommen für das Caching in Frage. 
   +  [Datenbank-Caching](https://aws.amazon.com/caching/database-caching/) 
   +  [Aktivieren des API-Cachings zur Verbesserung der Reaktionsfähigkeit](https://docs.aws.amazon.com/apigateway/latest/developerguide/api-gateway-caching.html) 

1.  Identifizieren Sie die geeignete Caching-Strategie, die am besten zu Ihrem Zugriffsmuster passt. 
   +  [Strategien für Zwischenspeicher](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/Strategies.html) 
   +  [AWS-Caching-Lösungen](https://aws.amazon.com/caching/aws-caching/) 

1.  Folgen Sie den [bewährten Methoden für das Caching](https://aws.amazon.com/caching/best-practices/) für Ihren Datenspeicher. 

1.  Konfigurieren Sie eine Cache-Invalidierungsstrategie, z. B. eine Time-to-Live (TTL), für alle Daten, die ein Gleichgewicht zwischen der Aktualität der Daten und der Verringerung der Auslastung des Backend-Datenspeichers herstellt. 

1.  Aktivieren Sie Funktionen wie automatische Verbindungswiederholungen, exponentielles Backoff, clientseitige Timeouts und Verbindungspooling beim Client, sofern verfügbar, um die Leistung und Zuverlässigkeit zu verbessern. 
   +  [Bewährte Methoden: Redis-Clients und Amazon ElastiCache (Redis OSS)](https://aws.amazon.com/blogs/database/best-practices-redis-clients-and-amazon-elasticache-for-redis/) 

1.  Überwachen Sie die Cache-Trefferrate mit einem Ziel von mindestens 80 %. Niedrigere Werte können auf eine unzureichende Cache-Größe oder ein Zugriffsmuster hinweisen, das nicht vom Caching profitiert. 
   +  [Welche Metriken sollte ich überwachen?](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/CacheMetrics.WhichShouldIMonitor.html) 
   +  [Bewährte Methoden für die Überwachung von Redis-Workloads auf Amazon ElastiCache](https://www.youtube.com/watch?v=c-hTMLN35BY) 
   +  [Bewährte Methoden für die Überwachung mit Amazon ElastiCache (Redis OSS) unter Verwendung von Amazon CloudWatch](https://aws.amazon.com/blogs/database/monitoring-best-practices-with-amazon-elasticache-for-redis-using-amazon-cloudwatch/) 

1.  Implementieren Sie [die Datenreplikation,](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/Replication.Redis.Groups.html) um Lesevorgänge auf mehrere Instances auszulagern und die Leseleistung und Verfügbarkeit von Daten zu verbessern. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Verwenden von Amazon ElastiCache Well-Architected Lense](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/WellArchitechtedLens.html) 
+  [Bewährte Methoden für die Überwachung mit Amazon ElastiCache (Redis OSS) unter Verwendung von Amazon CloudWatch](https://aws.amazon.com/blogs/database/monitoring-best-practices-with-amazon-elasticache-for-redis-using-amazon-cloudwatch/) 
+  [Welche Metriken sollte ich überwachen?](https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/CacheMetrics.WhichShouldIMonitor.html) 
+  [Whitepaper „Skalierbare Leistung mit Amazon ElastiCache“](https://docs.aws.amazon.com/whitepapers/latest/scale-performance-elasticache/scale-performance-elasticache.html) 
+  [Caching-Herausforderungen und -Strategien](https://aws.amazon.com/builders-library/caching-challenges-and-strategies/) 

 **Zugehörige Videos:** 
+  [Lernpfad zu Amazon ElastiCache](https://pages.awscloud.com/GLB-WBNR-AWS-OTT-2021_LP_0003-DAT_AmazonElastiCache.html) 
+  [Design for success with Amazon ElastiCache best practices (Erfolgreiches Design mit bewährten Methoden für Amazon ElastiCache)](https://youtu.be/_4SkEy6r-C4) 

 **Zugehörige Beispiele:** 
+  [Boosting MySQL database performance with Amazon ElastiCache (Redis OSS) (Steigern der MySQL-Datenbankleistung mit Amazon ElastiCache for Redis)](https://aws.amazon.com/getting-started/hands-on/boosting-mysql-database-performance-with-amazon-elasticache-for-redis/) 

# Networking und Bereitstellung von Inhalten
<a name="a-networking-delivery"></a>

# LEIST 4. Wie wählen und konfigurieren Sie Netzwerkressourcen in Ihrem Workload?
<a name="perf-04"></a>

 Die effektivste Datenbanklösung für ein System variiert je nach den Anforderungen an die Verfügbarkeit, Konsistenz, Partitionstoleranz, Latenz, Lebensdauer, Skalierbarkeit und Abfragefähigkeit. Viele Systeme verwenden unterschiedliche Datenbanklösungen für verschiedene Subsysteme und nutzen verschiedene Funktionen, um die Leistung zu verbessern. Die Wahl der falschen Datenbanklösung und -funktionen kann die Leistungseffizienz eines Systems schmälern. 

**Topics**
+ [PERF04-BP01 Verstehen der Auswirkungen des Netzwerks auf die Leistung](perf_networking_understand_how_networking_impacts_performance.md)
+ [PERF04-BP02 Evaluieren verfügbarer Netzwerk-Features](perf_networking_evaluate_networking_features.md)
+ [PERF04-BP03 Auswählen von entsprechend dedizierter Konnektivität oder VPN für Ihre Workload](perf_networking_choose_appropriate_dedicated_connectivity_or_vpn.md)
+ [PERF04-BP04 Lastausgleich verwenden, um den Datenverkehr auf mehrere Ressourcen zu verteilen](perf_networking_load_balancing_distribute_traffic.md)
+ [PERF04-BP05 Auswählen leistungsfördernder Netzwerkprotokolle](perf_networking_choose_network_protocols_improve_performance.md)
+ [PERF04-BP06 Auswählen des Workload-Standortes entsprechend den Netzwerkanforderungen](perf_networking_choose_workload_location_network_requirements.md)
+ [PERF04-BP07 Optimieren der Netzwerkkonfiguration basierend auf Metriken](perf_networking_optimize_network_configuration_based_on_metrics.md)

# PERF04-BP01 Verstehen der Auswirkungen des Netzwerks auf die Leistung
<a name="perf_networking_understand_how_networking_impacts_performance"></a>

 Analysieren und verstehen Sie, wie sich netzwerkbezogene Entscheidungen auf Ihre Workload auswirken, sodass Sie eine effiziente Leistung und ein verbessertes Benutzererlebnis erzielen können. 

 **Typische Anti-Muster:** 
+  Der gesamte Datenverkehr fließt durch Ihre bestehenden Rechenzentren. 
+  Sie leiten den gesamten Datenverkehr durch zentrale Firewalls, anstatt cloudnative Netzwerksicherheitstools zu verwenden. 
+  Sie stellen AWS Direct Connect-Verbindungen bereit, ohne die tatsächlichen Anforderungen der Benutzer zu verstehen. 
+  Sie berücksichtigen beim Definieren Ihrer Netzwerklösungen die Workload-Eigenschaften und den Verschlüsselungsaufwand nicht. 
+  Sie verwenden On-Premises-Konzepte und -Strategien für Netzwerklösungen in der Cloud. 

 **Vorteile der Nutzung dieser bewährten Methode:** Indem Sie verstehen, wie das Netzwerk die Workload-Leistung beeinflusst, können Sie potenzielle Engpässe erkennen, die Benutzererfahrung verbessern, die Zuverlässigkeit erhöhen und den Betriebsaufwand verringern, während sich die Workload verändert. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Das Netzwerk ist für die Verbindung zwischen Anwendungskomponenten, Cloud-Services, Edge-Netzwerken und On-Premises-Daten verantwortlich und kann daher die Workload-Leistung wesentlich beeinflussen. Die Benutzererfahrung kann nicht nur durch die Workload-Leistung, sondern auch durch Netzwerklatenz, Bandbreite, Protokolle, Standort, Netzwerküberlastungen, Jitter, Durchsatz und Routing-Regeln beeinträchtigt werden. 

 Sie haben eine dokumentierte Liste an Netzwerkanforderungen der Workload, einschließlich Latenz, Paketgröße, Routingregeln, Protokolle und unterstützender Datenverkehrsmuster. Sie überprüfen alle verfügbaren Netzwerklösungen und identifizieren, welcher Dienst den Netzwerkmerkmalen Ihrer Workload entspricht. Da cloudbasierte Netzwerke schnell geändert werden können, müssen Sie Ihre Netzwerkarchitektur im Laufe der Zeit weiterentwickeln, um die effiziente Leistung zu verbessern. 

### Implementierungsschritte:
<a name="implementation-steps"></a>

1.  Definieren und dokumentieren Sie die Anforderungen an die Netzwerkleistung, einschließlich Metriken wie Netzwerklatenz, Bandbreite, Protokolle, Standorte, Datenverkehrsmuster (Spitzen und Frequenz), Durchsatz, Verschlüsselung, Überprüfung und Routing-Regeln. 

1.  Erfahren Sie mehr über wichtige AWS-Netzwerkservices wie [VPCs](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html), [AWS Direct Connect](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/aws-direct-connect.html), [Elastic Load Balancing (ELB)](https://aws.amazon.com/elasticloadbalancing/)und [Amazon Route 53](https://aws.amazon.com/r53/). 

1.  Erfassen Sie die folgenden wichtigen Netzwerkmerkmale:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_networking_understand_how_networking_impacts_performance.html)

1.  Benchmarks für die Netzwerkleistung festlegen und testen: 

   1.  [Benchmark-](https://aws.amazon.com/premiumsupport/knowledge-center/network-throughput-benchmark-linux-ec2/) Netzwerkdurchsatz, da einige Faktoren die Amazon EC2-Netzwerkleistung beeinflussen können, wenn sich Instances in derselben VPC befinden. Messen Sie die Netzwerkbandbreite zwischen Amazon EC2-Linux-Instances in der gleichen VPC. 

   1.  Führen Sie [Lasttests](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) durch, um mit Netzwerklösungen und -optionen zu experimentieren. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [EC2: Enhanced Networking unter Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [EC2: Enhanced Networking unter Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [EC2: Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Aktivieren von Enhanced Networking-Funktionen mit dem Elastic Network Adapter (ENA) in Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Umstellung auf latenzbasiertes Routing in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Zugehörige Videos:** 
+  [Connectivity to AWS and hybrid AWS network architectures (Konnektivität mit AWS und AWS -Hybrid-Netzwerkarchitekturen)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (Optimieren der Netzwerkleistung für Amazon EC2-Instances)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [Improve Global Network Performance for Applications (Verbessern der Leistung von globalen Netzwerken für Anwendungen)](https://youtu.be/vNIALfLTW9M) 
+  [EC2 Instances and Performance Optimization Best Practices (Bewährte Methoden für EC2-Instances und Leistungsoptimierung)](https://youtu.be/W0PKclqP3U0) 
+  [Optimizing Network Performance for Amazon EC2 Instances (Optimieren der Netzwerkleistung für Amazon EC2-Instances)](https://youtu.be/DWiwuYtIgu0) 
+  [Networking best practices and tips with the Well-Architected Framework (Bewährte Methoden für Netzwerke und Tipps für das Well-Architected Framework)](https://youtu.be/wOMNpG49BeM) 
+  [AWS networking best practices in large-scale migrations (Bewährte Methoden für AWS-Netzwerke in umfangreichen Migrationen)](https://youtu.be/qCQvwLBjcbs) 

 **Zugehörige Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF04-BP02 Evaluieren verfügbarer Netzwerk-Features
<a name="perf_networking_evaluate_networking_features"></a>

Prüfen Sie die Netzwerkfunktionen in der Cloud, mit denen die Leistung unter Umständen verbessert werden kann. Messen Sie die Auswirkungen der Funktionen anhand von Tests, Metriken und Analysen. Nutzen Sie beispielsweise die verfügbaren Funktionen auf Netzwerkebene, um die Latenz, die Netzwerkentfernung oder den Jitter zu reduzieren.

 **Typische Anti-Muster:** 
+ Sie bleiben innerhalb einer Region, da sich Ihre Firmenzentrale dort befindet.
+ Sie verwenden Firewalls anstelle von Sicherheitsgruppen, um den Datenverkehr zu filtern.
+ Sie unterbrechen TLS für die Überprüfung des Datenverkehrs, anstatt sich auf Sicherheitsgruppen, Endpunktrichtlinien und andere cloudnative Funktionen zu verlassen.
+ Sie nutzen nur eine subnetzbasierte Segmentierung anstelle von Sicherheitsgruppen.

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie alle Servicefunktionen und Optionen evaluieren, kann dies die Workload-Leistung verbessern, die Infrastrukturkosten senken, den Verwaltungsaufwand für die Workload reduzieren und die allgemeine Sicherheit erhöhen. Dank der weltweiten Abdeckung von AWS können Sie Ihren Kunden stets das bestmögliche Netzwerkerlebnis bieten. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 AWS bietet Services wie [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) und [Amazon CloudFront,](https://aws.amazon.com/cloudfront/) die zur Verbesserung der Netzwerkleistung beitragen können, während die meisten AWS-Services über Produkt-Features verfügen (wie das [Amazon S3 Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/) -Feature) zur Optimierung des Netzwerkverkehrs. 

 Sehen Sie sich die verfügbaren Konfigurationsoptionen für das Netzwerk an und finden Sie heraus, wie sich diese auf Ihre Workload auswirken. Die Leistungsoptimierung hängt davon ab, wie diese Optionen mit Ihrer Architektur interagieren und welche Auswirkungen sie auf die gemessene Leistung und auf die Benutzererfahrung haben. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Erstellen Sie eine Liste der Workload-Komponenten. 
  +  Erwägen Sie die Verwendung von [AWS Cloud WAN,](https://aws.amazon.com/cloud-wan/) um das Netzwerk Ihrer Organisation aufzubauen, zu verwalten und zu überwachen, wenn Sie ein einheitliches globales Netzwerk aufbauen. 
  +  Überwachen Sie Ihre globalen Netzwerke und Kernnetzwerke mit [Amazon CloudWatch Logs-Metriken](https://docs.aws.amazon.com/network-manager/latest/tgwnm/monitoring-cloudwatch-metrics.html). Nutzen Sie [Amazon CloudWatch RUM](https://aws.amazon.com/about-aws/whats-new/2021/11/amazon-cloudwatch-rum-applications-client-side-performance/), das Erkenntnisse bietet, die dazu beitragen, das digitale Erlebnis der Benutzer zu identifizieren, zu verstehen und zu verbessern. 
  +  Zeigen Sie die aggregierte Netzwerklatenz zwischen AWS-Regionen und Availability Zones sowie innerhalb jeder Availability Zone an, indem Sie [AWS Network Manager](https://aws.amazon.com/transit-gateway/network-manager/) verwenden, um Erkenntnisse bezüglich des Zusammenhangs zwischen der Leistung Ihrer Anwendung und der Leistung des zugrunde liegenden AWS-Netzwerks zu erhalten. 
  +  Verwenden Sie ein vorhandenes Konfigurationsmanagementdatenbank-Tool (CMDB-Tool) oder einen Service wie [AWS Config](https://aws.amazon.com/config/) um eine Bestandsaufnahme Ihrer Workload und deren Konfiguration zu erstellen. 
+  Wenn es sich um einen bestehenden Workload handelt, ermitteln und dokumentieren Sie die Benchmark für Ihre Leistungsmetriken. Konzentrieren Sie sich dabei auf Engpässe und Bereiche mit Verbesserungspotenzial. Leistungsbezogene Netzwerkmetriken werden je nach geschäftlichen Anforderungen und Workload-Merkmalen für die einzelnen Workloads unterschiedlich sein. Für den Anfang könnte die Prüfung folgender Metriken für Ihre Workload wichtig sein: Bandbreite, Latenz, Paketverlust, Jitter und erneute Übertragungen. 
+  Bei einer neuen Workload sollten Sie [Lasttests](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) durchführen, um Leistungsengpässe zu identifizieren. 
+  Prüfen Sie für die ermittelten Leistungsengpässe die Konfigurationsoptionen Ihrer Lösungen, um Möglichkeiten zur Leistungsverbesserung zu finden. Informieren Sie sich über die folgenden wichtigen Netzwerkoptionen und -Features:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_networking_evaluate_networking_features.html)

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [Amazon EBS – Optimierte Instances ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html)
+ [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html)
+ [EC2: Enhanced Networking unter Linux ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html)
+ [EC2: Enhanced Networking unter Windows ](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html)
+ [EC2: Platzierungsgruppen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [Aktivieren von Enhanced Networking-Funktionen mit dem ENA in Linux-Instances ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html)
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)
+ [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/)
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)
+ [Umstellung auf latenzbasiertes Routing in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html)
+ [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/privatelink/concepts.html)
+ [VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)

 **Zugehörige Videos:** 
+ [Connectivity to AWS and hybrid AWS network architectures (Konnektivität mit AWS und AWS -Hybrid-Netzwerkarchitekturen)](https://www.youtube.com/watch?v=eqW6CPb58gs)
+ [Optimizing Network Performance for Amazon EC2 Instances (Optimieren der Netzwerkleistung für Amazon EC2-Instances)](https://www.youtube.com/watch?v=DWiwuYtIgu0)
+ [AWS Global Accelerator](https://www.youtube.com/watch?v=Docl4julOQw)

 **Zugehörige Beispiele:** 
+ [AWS Transit Gateway und skalierbare Sicherheitslösungen ](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions)
+ [Workshops zu AWS-Netzwerken](https://catalog.workshops.aws/networking/en-US)

# PERF04-BP03 Auswählen von entsprechend dedizierter Konnektivität oder VPN für Ihre Workload
<a name="perf_networking_choose_appropriate_dedicated_connectivity_or_vpn"></a>

 Wenn Hybrid-Konnektivität für die Verbindung von On-Premises- und Cloud-Ressourcen erforderlich ist, stellen Sie ausreichend Bandbreite bereit, um Ihre Leistungsanforderungen zu erfüllen. Schätzen Sie die Anforderungen an Bandbreite und Latenz für Ihren hybriden Workload ab. Diese Zahlen dienen als Grundlage für die Größenanpassung. 

 **Typische Anti-Muster:** 
+  Sie evaluieren nur VPN-Lösungen für Ihre Netzwerk-Verschlüsselungsanforderungen. 
+  Sie bewerten keine Optionen für Sicherung oder redundante Verbindungen. 
+  Sie identifizieren nicht alle Workload-Anforderungen (Verschlüsselung, Protokoll, Bandbreite und Traffic-Bedarf). 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch die Auswahl und Konfiguration geeigneter Konnektivitätslösungen wird die Zuverlässigkeit Ihrer Workloads erhöht und die Leistung maximiert. Indem Sie die Workload-Anforderungen identifizieren, im Voraus planen und hybride Lösungen evaluieren, verringern Sie teure physische Netzwerkänderungen sowie den Betriebsaufwand und verkürzen die Amortisationszeit. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Entwickeln Sie eine hybride Netzwerkarchitektur entsprechend den Bandbreitenanforderungen. [Direct Connect](https://aws.amazon.com/directconnect/) ermöglicht es Ihnen, Ihr On-Premises-Netzwerk privat mit AWS zu verbinden. Sie ist geeignet, wenn Sie eine hohe Bandbreite und eine geringe Latenz bei gleichbleibender Leistung benötigen. Eine VPN-Verbindung stellt eine sichere Verbindung über das Internet her. Sie wird verwendet, wenn lediglich eine temporäre Verbindung erforderlich ist, wenn die Kosten eine Rolle spielen, oder wenn bei der Verwendung von Direct Connect darauf gewartet wird, dass eine resiliente physische Netzwerkkonnektivität hergestellt wird. 

 Wenn Ihre Bandbreitenanforderungen hoch sind, könnten Sie mehrere Direct Connect oder VPN-Services in Betracht ziehen. Der Lastausgleich für den Datenverkehr kann über die Services hinweg erfolgen. Allerdings empfehlen wir aufgrund der Latenz- und Bandbreitenunterschiede keinen Lastausgleich zwischen Direct Connect und VPN. 

### Implementierungsschritte
<a name="implementation-steps"></a>

1.  Schätzen Sie die Anforderungen an Bandbreite und Latenz für Ihre bestehenden Anwendungen ab. 

   1.  Für bestehende Workloads , die auf AWS umgestellt werden, nutzen Sie die Daten aus Ihren internen Systemen zur Überwachung des Netzwerks. 

   1.  Bei neuen oder bestehenden Workloads, für die Sie keine Monitoring-Daten haben, beraten Sie sich mit den Besitzern der Produkte, um angemessene Metriken für die Leistung zu bestimmen und ein gutes Benutzererlebnis zu gewährleisten. 

1.  Wählen Sie eine dedizierte Verbindung oder ein VPN als Konnektivitätsoption aus. Je nach den Anforderungen des Workloads (Verschlüsselung, Bandbreite und Traffic-Bedarf) können Sie entweder AWS Direct Connect oder [Site-to-Site VPN auswählen](https://aws.amazon.com/vpn/) (oder beides). Das folgende Diagramm kann Ihnen bei der Wahl der geeigneten Verbindungsart helfen. 

   1.  [AWS Direct Connect](https://aws.amazon.com/directconnect/) liefert dedizierte Konnektivität für die AWS-Umgebung, von 50 Mbit/s bis zu 100 Gbit/s, entweder über dedizierte Verbindungen oder über gehostete Verbindungen. So erhalten Sie eine verwaltete und kontrollierte Latenz und bereitgestellte Bandbreite, damit sich Ihr Workload effizient mit anderen Umgebungen verbinden kann. Mit einem AWS Direct Connect-Partner können Sie eine End-to-End-Konnektivität aus mehreren Umgebungen nutzen und so ein erweitertes Netzwerk mit konsistenter Leistung bereitstellen. AWS bietet eine Skalierung der Bandbreite für Direct Connect-Verbindungen entweder über native 100 Gbit/s, Link Aggregation Group (LAG) oder BGP Equal-Cost Multipath (ECMP). 

   1.  Das AWS [Site-to-Site VPN](https://aws.amazon.com/vpn/) bietet einen verwalteten VPN-Service, der das IPsec (Internet Protocol Security) unterstützt. Wenn eine VPN-Verbindung erstellt wird, besteht die VPN-Verbindung aus zwei Tunneln, um eine hohe Verfügbarkeit zu gewährleisten. 

1.  Folgen Sie der AWS-Dokumentation, um eine geeignete Verbindungsoption auszuwählen: 

   1.  Wenn Sie sich für die Verwendung von Direct Connect entscheiden, wählen Sie die entsprechende Bandbreite für Ihre Konnektivität aus. 

   1.  Wenn Sie ein AWS Site-to-Site VPN über mehrere Standorte hinweg nutzen, um eine Verbindung zu einer AWS-Region herzustellen, sollten Sie eine [beschleunigte Site-to-Site VPN-Verbindung verwenden,](https://docs.aws.amazon.com/vpn/latest/s2svpn/accelerated-vpn.html) um die Netzwerkleistung verbessern zu können. 

   1.  Wenn Ihr Netzwerkdesign aus einer IPSec-VPN-Verbindung über [AWS Direct Connect](https://aws.amazon.com/directconnect/)besteht, sollten Sie erwägen, Private IP VPN zu verwenden, um die Sicherheit zu verbessern und eine Segmentierung zu erzielen. [AWS Site-to-Site Private IP VPN](https://aws.amazon.com/blogs/networking-and-content-delivery/introducing-aws-site-to-site-vpn-private-ip-vpns/) wird auf der virtuellen Transitschnittstelle bereitgestellt. 

   1.  [AWS Direct Connect SiteLink](https://aws.amazon.com/blogs/aws/new-site-to-site-connectivity-with-aws-direct-connect-sitelink/) ermöglicht die Schaffung redundanter Verbindungen mit niedriger Latenz zwischen Ihren Rechenzentren weltweit, indem Daten über den schnellsten Weg zwischen [AWS Direct Connect-Standorten](https://aws.amazon.com/directconnect/locations/), unter Umgehung von AWS-Regionen, gesendet werden. 

1.  Überprüfen Sie Ihr Konnektivitäts-Setup, bevor Sie es in der Produktion einsetzen. Führen Sie Sicherheits- und Leistungstests durch, um sicherzustellen, dass das Setup Ihre Anforderungen an Bandbreite, Zuverlässigkeit, Latenz und Compliance erfüllt. 

1.  Überwachen Sie regelmäßig die Leistung und Nutzung Ihrer Konnektivität und optimieren Sie sie bei Bedarf. 

![\[Ein Flussdiagramm, das die Optionen im Rahmen der Entscheidung zur Notwendigkeit einer deterministischen Leistung in Ihrem Netzwerk beschreibt.\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/images/deterministic-networking-flowchart.png)


 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)
+ [ Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/)
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)
+ [ Umstellung auf latenzbasiertes Routing in Amazon Route 53 ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html)
+ [ VPC-Endpunkte ](https://docs.aws.amazon.com/vpc/latest/privatelink/concepts.html)
+  [Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) 
+  [Erstellen einer skalierbaren und sicheren Multi-VPC-AWS-Netzwerkinfrastruktur](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/welcome.html) 
+  [Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) 
+  [Client-VPN](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/what-is.html) 

 **Zugehörige Videos:** 
+ [ Connectivity to AWS and hybrid AWS network architectures (Konnektivität mit AWS und AWS -Hybrid-Netzwerkarchitekturen) ](https://www.youtube.com/watch?v=eqW6CPb58gs)
+ [ Optimizing Network Performance for Amazon EC2 Instances (Optimieren der Netzwerkleistung für Amazon EC2-Instances) ](https://www.youtube.com/watch?v=DWiwuYtIgu0)
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 
+  [Direct Connect](https://www.youtube.com/watch?v=DXFooR95BYc&t=6s) 
+  [AWS Transit Gateway Connect](https://www.youtube.com/watch?v=_MPY_LHSKtM&t=491s) 
+  [VPN-Lösungen](https://www.youtube.com/watch?v=qmKkbuS9gRs) 
+  [Sicherheit mit VPN-Lösungen](https://www.youtube.com/watch?v=FrhVV9nG4UM) 

 **Zugehörige Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF04-BP04 Lastausgleich verwenden, um den Datenverkehr auf mehrere Ressourcen zu verteilen
<a name="perf_networking_load_balancing_distribute_traffic"></a>

 Verteilen Sie den Datenverkehr auf mehrere Ressourcen oder Services, um von der Elastizität der Cloud zu profitieren. Sie können den Lastausgleich auch nutzen, um die Terminierung von Verschlüsselung auszulagern. So lässt sich die Leistung und Zuverlässigkeit optimieren und der Datenverkehr effektiv verwalten und weiterleiten. 

 **Typische Anti-Muster:** 
+  Sie berücksichtigen bei der Wahl des Load Balancer-Typs nicht die Anforderungen Ihres Workloads. 
+  Sie nutzen die Funktionen des Load Balancers nicht zur Optimierung der Leistung. 
+  Der Workload ist direkt mit dem Internet verbunden, ohne dass ein Load Balancer zum Einsatz kommt. 
+  Sie leiten den gesamten Internetverkehr über vorhandene Load Balancer weiter. 
+  Sie nutzen einen generischen TCP-Lastausgleich und lassen die SSL-Verschlüsselung von den einzelnen Rechenknoten verarbeiten. 

 **Vorteile der Nutzung dieser bewährten Methode:** Ein Load Balancer verarbeitet die variierende Last des Anwendungsdatenverkehrs in einer einzigen oder in mehreren Availability Zones und ermöglicht eine hohe Verfügbarkeit, Auto Scaling sowie eine bessere Nutzung für Ihre Workload. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Load Balancer fungieren als Eingangspunkt für Ihren Workload und verteilen den Datenverkehr von dort aus auf Ihre Backend-Ziele – wie Computing-Instances oder Container –, um die Nutzung zu verbessern. 

 Die Wahl des richtigen Load Balancer-Typs ist der erste Schritt zur Optimierung Ihrer Architektur. Starten Sie mit einer Auflistung Ihrer Workload-Merkmale wie Protokoll (z. B. TCP, HTTP, TLS oder WebSockets), Zieltyp (z. B. Instances, Container oder Serverless), Anwendungsanforderungen (z. B. langfristige Verbindungen, Benutzerauthentifizierung oder Stickiness) und Platzierung (z. B. Region, lokale Zone, Outposts oder Zonenisolierung). 

 AWS stellt für Ihre Anwendungen mehrere Modelle zur Verwendung des Lastausgleichs bereit. [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) eignet sich optimal für den Lastausgleich von HTTP- und HTTPS-Datenverkehr. Sie profitieren hierbei von einer erweiterten Weiterleitung von Anforderungen, die es Ihnen ermöglicht, moderne Anwendungsarchitekturen mit Microservices und Containern bereitzustellen. 

 [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) eignet sich optimal für den Lastausgleich von TCP-Datenverkehr, wenn eine hohe Leistung erforderlich ist. Hiermit lassen sich mit konstant geringer Latenz Millionen Anforderungen pro Sekunde und plötzliche Datenverkehrsspitzen oder schwankende Datenverkehrsmuster verarbeiten. 

 [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) ermöglicht die integrierte Zertifikatverwaltung und SSL/TLS-Entschlüsselung. Auf diese Weise können Sie die SSL-Einstellungen des Load Balancers flexibel zentral verwalten und CPU-intensive Arbeitsschritte für Ihren Workload auslagern. 

 Nachdem Sie sich für den richtigen Load Balancer entschieden haben, können Sie damit beginnen, seine Features zu nutzen, um die Belastung Ihres Backends durch den Datenverkehr zu verringern. 

 So können Sie beispielsweise sowohl mit Application Load Balancer (ALB) als auch mit Network Load Balancer (NLB) die SSL/TLS-Verschlüsselung auslagern, was die Möglichkeit bietet, den CPU-intensiven TLS-Handshake bei Ihren Zielen zu vermeiden und die Verwaltung der Zertifikate zu verbessern. 

 Wenn Sie SSL/TLS-Offloading in Ihrem Load Balancer konfigurieren, übernimmt dieser die Verschlüsselung des Datenverkehrs von und zu den Clients. Er leitet den Datenverkehr dann unverschlüsselt an Ihre Backends weiter, wodurch Ihre Backend-Ressourcen entlastet werden und die Reaktionszeit für die Clients verbessert wird. 

 Application Load Balancer kann außerdem HTTP/2-Datenverkehr ausliefern, ohne dass Sie ihn auf Ihren Zielen unterstützen müssen. Diese einfache Entscheidung kann die Reaktionszeit Ihrer Anwendung verbessern, da HTTP/2 TCP-Verbindungen effizienter nutzt. 

 Bei der Definition der Architektur sollten Sie die Anforderungen an die Latenz Ihres Workloads berücksichtigen. Wenn Sie beispielsweise eine latenzempfindliche Anwendung haben, können Sie sich für Network Load Balancer mit einer extrem niedrigen Latenz entscheiden. Alternativ können Sie Ihren Workload auch näher an Ihre Kunden heranbringen, indem Sie Application Load Balancer in [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) oder sogar [AWS Outposts](https://aws.amazon.com/outposts/rack/)einsetzen. 

 Eine weitere Überlegung für latenzempfindliche Workloads ist das zonenübergreifende Load-Balancing. Beim zonenübergreifenden Lastausgleich nimmt jeder Load Balancer-Knoten eine Verteilung des Datenverkehrs auf die registrierten Ziele in allen zulässigen Availability Zones vor. 

 Verwenden Sie die Auto Scaling-Integration für Ihren Load Balancer. Einer der Schlüssel für ein leistungsfähiges System ist die richtige Größenanpassung Ihrer Backend-Ressourcen. Zu diesem Zweck können Sie Load Balancer-Integrationen für Backend-Zielressourcen nutzen. Mithilfe der Load Balancer-Integration mit Auto Scaling-Gruppen werden Ziele je nach Bedarf als Reaktion auf den eingehenden Datenverkehr zum Load-Balancer hinzugefügt oder aus ihm entfernt. Load Balancer können auch in [Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html) und [Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) für containerisierte Workloads integriert werden. 
+  [Amazon ECS – Service-Lastausgleich](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html) 
+  [Anwendungslastausgleich auf Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) 
+  [Netzwerklastausgleich Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Definieren Sie Ihre Anforderungen an den Lastausgleich, einschließlich Datenverkehrsvolumen, Verfügbarkeit und Anwendungsskalierbarkeit. 
+  Wählen Sie den richtigen Load Balancer-Typ für Ihre Anwendung. 
  +  Verwenden Sie Application Load Balancer für HTTP/HTTPS Workloads. 
  +  Verwenden Sie Network Load Balancer für Nicht-HTTP-Workloads, die TCP oder UDP nutzen. 
  +  Verwenden Sie eine Kombination aus beidem ([ALB als Ziel des NLB](https://aws.amazon.com/blogs/networking-and-content-delivery/application-load-balancer-type-target-group-for-network-load-balancer/)), wenn Sie die Features beider Produkte nutzen möchten. Dies ist zum Beispiel möglich, wenn Sie die statischen IP-Adressen von NLB zusammen mit dem HTTP-Header-basierten Routing von ALB verwenden möchten oder wenn Sie Ihren HTTP-Workload an [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-share-your-services.html)anbinden möchten. 
  +  Einen vollständigen Vergleich der Load Balancer finden Sie unter [ELB-Produktvergleich](https://aws.amazon.com/elasticloadbalancing/features/). 
+  Verwenden Sie nach Möglichkeit SSL/TLS-Offloading. 
  +  Konfigurieren Sie HTTPS/TLS-Listeners mit [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html) und [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-tls-listener.html) , integriert mit [AWS Certificate Manager](https://aws.amazon.com/certificate-manager/). 
  +  Beachten Sie, dass einige Workloads aus Compliance-Gründen eine Ende-zu-Ende-Verschlüsselung benötigen können. In diesem Fall ist es erforderlich, die Verschlüsselung an den Zielen zuzulassen. 
  +  Best Practices für die Sicherheit finden Sie unter [SEC09-BP02 Erzwingen einer Verschlüsselung bei der Übertragung](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html). 
+  Wählen Sie den richtigen Routing-Algorithmus (nur ALB) aus. 
  +  Der Routing-Algorithmus kann einen entscheidenden Einfluss darauf haben, wie gut Ihre Backend-Ziele ausgelastet sind und wie sie die Leistung beeinflussen. ALB bietet beispielsweise [zwei Optionen für Routing-Algorithmen](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#modify-routing-algorithm): 
  +  **Am wenigsten ausstehende Anfragen:** Verwenden Sie diese Option, um eine bessere Verteilung der Last auf Ihre Backend-Ziele zu erreichen, wenn die Anfragen für Ihre Anwendung unterschiedlich komplex sind oder Ihre Ziele unterschiedliche Kapazitäten für die Verarbeitung haben. 
  +  **Round Robin:** Verwenden Sie diese Option, wenn die Anfragen und Ziele ähnlich sind oder wenn Sie die Anfragen gleichmäßig auf die Ziele verteilen müssen. 
+  Ziehen Sie eine zonenübergreifende Verarbeitung oder Zonenisolierung in Betracht. 
  +  Verwenden Sie die deaktivierte zonenübergreifende Isolierung (Zonenisolierung), um die Latenz zu verbessern und Domänen mit Zonenfehlern zu vermeiden. Sie ist standardmäßig in NLB deaktiviert und [Sie können sie in ALB pro Zielgruppe ausschalten.](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/disable-cross-zone.html). 
  +  Verwenden Sie die aktivierte zonenübergreifende Verarbeitung für eine höhere Verfügbarkeit und Flexibilität. Standardmäßig ist Cross-Zone für ALB aktiviert und [Sie können sie in NLB pro Zielgruppe aktivieren](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/target-group-cross-zone.html). 
+  Aktivieren Sie HTTP-Keep-Alives für Ihre HTTP-Workloads (nur ALB). Mit diesem Feature kann der Load Balancer Backend-Verbindungen wiederverwenden, bis die Keep-Alive-Zeit abgelaufen ist, wodurch sich Ihre HTTP-Anfrage- und Reaktionszeiten verbessern und die Auslastung der Ressourcen auf Ihren Backend-Zielen reduziert wird. Details zu dieser Funktion für Apache und Nginx können, finden Sie unter [Was sind die optimalen Einstellungen für die Verwendung von Apache oder NGINX als Backend-Server für ELB?](https://aws.amazon.com/premiumsupport/knowledge-center/apache-backend-elb/) 
+  Aktivieren Sie die Überwachung für Ihren Load Balancer. 
  +  Aktivieren Sie die Zugriffsprotokolle für Ihren [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-access-logging.html) und [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-access-logs.html). 
  +  Die wichtigsten zu berücksichtigenden Elemente für ALB sind `request_processing_time`, `request_processing_time`und `response_processing_time`. 
  +  Die wichtigsten Elemente für NLB sind `connection_time` und `tls_handshake_time`. 
  +  Bereiten Sie sich darauf vor, die Protokolle bei Bedarf abfragen zu können. Sie können Amazon Athena verwenden, um sowohl [ALB-Protokolle](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) als auch [NLB-Protokolle](https://docs.aws.amazon.com/athena/latest/ug/networkloadbalancer-classic-logs.html). 
  +  Erstellen Sie Warnungen für leistungsbezogene Metriken wie [`TargetResponseTime` für ALB](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-cloudwatch-metrics.html). 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [ELB-Produktvergleich ](https://aws.amazon.com/elasticloadbalancing/features/) 
+  [Globale AWS-Infrastruktur ](https://aws.amazon.com/about-aws/global-infrastructure/) 
+  [Improving Performance and Reducing Cost Using Availability Zone Affinity (Verbesserung der Leistung und Senkung der Kosten durch Availability Zone-Affinität) ](https://aws.amazon.com/blogs/architecture/improving-performance-and-reducing-cost-using-availability-zone-affinity/) 
+  [Step by step for Log Analysis with Amazon Athena (Schritt für Schritt zur Protokollanalyse mit Amazon Athena) ](https://github.com/aws/elastic-load-balancing-tools/tree/master/amazon-athena-for-elb) 
+  [Abfragen von Application Load Balancer-Protokollen](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) 
+  [Monitor your Application Load Balancers (Überwachen Ihrer Application Load Balancers)](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-monitoring.html) 
+  [Monitor your Network Load Balancer (Überwachen Ihres Network Load Balancer)](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-monitoring.html) 
+  [Um den Datenverkehr über die Instances in Ihrer Auto Scaling-Gruppe zu verteilen, verwenden Sie Elastic Load Balancing](https://docs.aws.amazon.com/autoscaling/ec2/userguide/autoscaling-load-balancer.html) 

 **Zugehörige Videos:** 
+  [AWS re:Invent 2018: Elastic Load Balancing: Deep Dive and Best Practices (Deep Dive und Best Practices)](https://www.youtube.com/watch?v=VIgAT7vjol8) 
+  [AWS re:Invent 2021 – How to choose the right load balancer for your AWS-workloads (AWS re:Invent 2021 – So wählen Sie den richtigen Load Balancer für Ihre AWS-Workloads aus) ](https://www.youtube.com/watch?v=p0YZBF03r5A) 
+  [AWS re:Inforce 2022 - How to use Elastic Load Balancing to enhance your security posture at scale (AWS re:Inforce 2022 – So verbessen Sie mit Elastic Load Balancing Ihren Sicherheitsstatus im großen Umfang)](https://www.youtube.com/watch?v=YhNc5VSzOGQ) 
+  [AWS re:Invent 2019: Get the most from Elastic Load Balancing for different workloads (AWS re:Invent 2019: Holen Sie das Beste aus Elastic Load Balancing für verschiedene Workloads heraus)](https://www.youtube.com/watch?v=HKh54BkaOK0) 

 **Zugehörige Beispiele:** 
+  [CDK and CloudFormation samples for Log Analysis with Amazon Athena (CDK und CloudFormation-Beispiele für die Protokollanalyse mit Amazon Athena) ](https://github.com/aws/elastic-load-balancing-tools/tree/master/log-analysis-elb-cdk-cf-template) 

# PERF04-BP05 Auswählen leistungsfördernder Netzwerkprotokolle
<a name="perf_networking_choose_network_protocols_improve_performance"></a>

 Treffen Sie Entscheidungen über Protokolle für die Kommunikation zwischen Systemen und Netzwerken auf Grundlage der Auswirkungen, die sich für die Leistung der Workload ergeben. 

 In Bezug auf die Erzielung eines höheren Durchsatzes besteht eine Beziehung zwischen der Latenz und der Bandbreite. Wenn Ihre Dateiübertragung über TCP (Transmission Control Protocol) erfolgt, verringern höhere Latenzen höchstwahrscheinlich den gesamten Durchsatz. Es gibt verschiedene Ansätze, dies mit der TCP-Optimierung und optimierten Übertragungsprotokollen zu lösen. Eine Lösung besteht jedoch in der Verwendung des User Datagram Protocol (UDP). 

 **Typische Anti-Muster:** 
+  Sie verwenden TCP unabhängig von den Leistungsanforderungen für alle Workloads. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie sicherstellen, dass ein geeignetes Protokoll für die Kommunikation zwischen Benutzern und Workload-Komponenten verwendet wird, können Sie das Benutzererlebnis für Ihre Anwendungen insgesamt verbessern. Das verbindungslose UDP ermöglicht zwar beispielsweise eine hohe Geschwindigkeit, bietet aber weder eine erneute Übertragung noch hohe Zuverlässigkeit. TCP ist ein Protokoll mit vollem Funktionsumfang, bringt jedoch einen größeren Overhead für die Verarbeitung der Pakete mit sich. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Wenn Sie in der Lage sind, verschiedene Protokolle für Ihre Anwendung auszuwählen, und Sie über Fachwissen in diesem Bereich verfügen, optimieren Sie Ihre Anwendungs- und Endbenutzererfahrung, indem Sie ein anderes Protokoll verwenden. Beachten Sie, dass dieser Ansatz mit erheblichen Schwierigkeiten verbunden ist und nur versucht werden sollte, wenn Sie Ihre Anwendung zuvor auf andere Weise optimiert haben. 

 Um die Leistung Ihres Workloads zu verbessern, sollten Sie in erster Linie die Anforderungen an die Latenz und den Durchsatz kennen und dann Netzwerkprotokolle auswählen, die die Leistung optimieren. 

 **Wann sollten Sie TCP verwenden** 

 TCP bietet eine zuverlässige Zustellung von Daten und kann für die Kommunikation zwischen Workload-Komponenten verwendet werden, bei denen die Zuverlässigkeit und die garantierte Zustellung von Daten wichtig sind. Viele webbasierte Anwendungen verlassen sich auf TCP-basierte Protokolle wie HTTP und HTTPS, um TCP-Sockets für die Kommunikation zwischen Anwendungskomponenten zu öffnen. E-Mail- und Dateidatenübertragung sind gängige Anwendungen, die auch TCP verwenden, da es sich um einen einfachen und zuverlässigen Übertragungsmechanismus zwischen Anwendungskomponenten handelt. Die Verwendung von TLS mit TCP kann zu einem gewissen Overhead bei der Kommunikation führen, was eine erhöhte Latenz und einen verringerten Durchsatz zur Folge haben kann. Sie bietet jedoch den Vorteil der Sicherheit. Der Overhead entsteht vor allem durch den zusätzlichen Aufwand des Handshake-Prozesses, der mehrere Roundtrips in Anspruch nehmen kann. Sobald der Handshake abgeschlossen ist, ist der Overhead für die Ver- und Entschlüsselung der Daten relativ gering. 

 **Wann sollten Sie UDP verwenden** 

 UDP ist ein verbindungsloses Protokoll und eignet sich daher für Anwendungen, die eine schnelle, effiziente Übertragung benötigen, wie z. B. die Protokollierung, die Überwachung und VoIP-Daten. Ziehen Sie die Verwendung von UDP auch in Betracht, wenn Sie Workload-Komponenten haben, die auf kleine Abfragen von einer großen Anzahl von Clients reagieren, um eine optimale Leistung des Workloads zu gewährleisten. Datagram Transport Layer Security (DTLS) ist die UDP-Entsprechung von Transport Layer Security (TLS). Bei der Verwendung von DTLS mit UDP entsteht der Overhead durch die Verschlüsselung und Entschlüsselung der Daten, da der Handshake-Prozess vereinfacht ist. DTLS fügt den UDP-Paketen außerdem einen geringen Overhead hinzu, da es zusätzliche Felder zur Angabe der Sicherheitsparameter und zur Erkennung von Manipulationen umfasst. 

 **Wann sollten Sie SRD verwenden** 

 Scalable Reliable Datagram (SRD) ist ein Netzwerktransportprotokoll, das für Workloads mit hohem Durchsatz optimiert ist, da es in der Lage ist, den Datenverkehr über mehrere Pfade zu verteilen und sich schnell von Paketverlusten oder Verbindungsfehlern zu erholen. SRD eignet sich daher am besten für HPC-Workloads (High Performance Computing), die einen hohen Durchsatz und eine geringe Latenz bei der Kommunikation zwischen Computing-Knoten erfordern. Dazu gehören z. B. parallele Verarbeitungsaufgaben wie Simulationen, Modellierung und Datenanalyse, bei denen eine große Menge an Daten zwischen den Knoten übertragen werden muss. 

### Implementierungsschritte
<a name="implementation-steps"></a>

1.  Verwenden Sie die [AWS Global Accelerator-](https://aws.amazon.com/global-accelerator/) und [AWS Transfer Family-](https://aws.amazon.com/aws-transfer-family/) Services, um den Durchsatz Ihrer Anwendungen für die Onlineübertragung von Dateien zu verbessern. Der AWS Global Accelerator-Service hilft Ihnen, die Latenz zwischen Ihren Client-Geräten und Ihrem Workload auf AWS zu verringern. Mit AWS Transfer Family können Sie TCP-basierte Protokolle wie Secure Shell File Transfer Protocol (SFTP) und File Transfer Protocol over SSL (FTPS) verwenden, um Ihre Dateiübertragungen zu AWS-Speicherdiensten sicher zu skalieren und zu verwalten. 

1.  Bestimmen Sie anhand der Netzwerklatenz, ob TCP für die Kommunikation zwischen Workload-Komponenten geeignet ist. Wenn die Netzwerklatenz zwischen Ihrer Client-Anwendung und dem Server hoch ist, kann der TCP-Drei-Wege-Handshake einige Zeit in Anspruch nehmen, was sich auf die Reaktionsfähigkeit Ihrer Anwendung auswirkt. Metriken wie Time to First Byte (TTFB) und Round-Trip Time (RTT) können zur Messung der Netzwerklatenz verwendet werden. Wenn Ihr Workload dynamische Inhalte für Benutzer bereitstellt, sollten Sie die Verwendung von [Amazon CloudFront](https://aws.amazon.com/cloudfront/)in Betracht ziehen. So wird eine dauerhafte Verbindung zu jeder Quelle für dynamische Inhalte hergestellt, um die Zeit für den Verbindungsaufbau zu vermeiden, die sonst jede Client-Anfrage verlangsamen würde. 

1.  Die Verwendung von TLS mit TCP oder UDP kann aufgrund der Auswirkungen der Ver- und Entschlüsselung zu einer erhöhten Latenz und einem reduzierten Durchsatz für Ihren Workload führen. Ziehen Sie für solche Workloads das SSL/TLS-Offloading auf [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) in Betracht, um die Leistung des Workloads zu verbessern, indem Sie den Load Balancer die SSL/TLS-Verschlüsselung und -Entschlüsselung übernehmen lassen, anstatt dies den Backend-Instances zu überlassen. Dies kann dazu beitragen, die CPU-Auslastung der Backend-Instances zu reduzieren, was die Leistung verbessern und die Kapazität erhöhen kann. 

1.  Verwenden Sie den [Network Load Balancer (NLB),](https://aws.amazon.com/elasticloadbalancing/network-load-balancer/) um Services bereitzustellen, die auf dem UDP-Protokoll basieren (wie die Authentifizierung und Autorisierung, die Protokollierung, DNS, IoT und das Streamen von Medien), um die Leistung und Zuverlässigkeit Ihres Workloads zu verbessern. Der NLB verteilt den eingehenden UDP-Datenverkehr auf mehrere Ziele, sodass Sie Ihren Workload horizontal skalieren, die Kapazität erhöhen und den Overhead eines einzelnen Ziels reduzieren können. 

1.  Für Ihre HPC-Workloads (High Performance Computing) sollten Sie die [Elastic Network Adapter (ENA) Express-Funktionalität](https://aws.amazon.com/about-aws/whats-new/2022/11/elastic-network-adapter-ena-express-amazon-ec2-instances/) in Betracht ziehen, die das SRD-Protokoll nutzt, um die Leistung des Netzwerks zu verbessern, indem sie eine höhere Bandbreite für einen einzelnen Datenfluss (25 Gbit/s) und eine niedrigere Latenz (25 Perzentil) für den Netzwerkverkehr zwischen EC2-Instances bietet. 

1.  Verwenden Sie den [Application Load Balancer (ALB),](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) um Ihren gRPC-Datenverkehr (Remote Procedure Calls) zwischen Workload-Komponenten oder zwischen gRPC-Clients und -Services zu routen und ein Load-Balancing durchzuführen. gRPC verwendet das TCP-basierte HTTP/2-Protokoll für den Transport und bietet Vorteile in Bezug auf die Leistung, wie z. B. einen geringeren Netzwerk-Footprint, Komprimierung, effiziente binäre Serialisierung, Unterstützung zahlreicher Sprachen und bidirektionales Streaming. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon EBS – Optimierte Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [EC2: Enhanced Networking unter Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [EC2: Enhanced Networking unter Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [EC2: Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Aktivieren von Enhanced Networking-Funktionen mit dem Elastic Network Adapter (ENA) in Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/) 
+  [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Umstellung auf latenzbasiertes Routing in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Zugehörige Videos:** 
+  [Connectivity to AWS and hybrid AWS network architectures (Konnektivität mit AWS- und AWS-Hybrid-Netzwerkarchitekturen)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2-Instances (Optimieren der Netzwerkleistung für EC2-Instances)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 

 **Zugehörige Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF04-BP06 Auswählen des Workload-Standortes entsprechend den Netzwerkanforderungen
<a name="perf_networking_choose_workload_location_network_requirements"></a>

Evaluieren Sie Optionen für die Platzierung von Ressourcen, um die Latenz im Netzwerk zu verringern und den Durchsatz zu verbessern und so ein optimales Benutzererlebnis durch kürzere Seitenlade- und Datentransferzeiten zu gewährleisten.

 **Typische Anti-Muster:** 
+  Sie konsolidieren alle Workload-Ressourcen an einem geografischen Standort. 
+  Sie haben sich für die Region entschieden, die Ihrem Standort, aber nicht dem Workload-Endbenutzer, am nächsten liegt. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Benutzererfahrung wird stark von der Latenz zwischen dem Benutzer und Ihrer Anwendung beeinflusst. Durch die Verwendung geeigneter AWS-Regionen und des privaten globalen AWS-Netzwerks können Sie die Latenz reduzieren und Remote-Benutzern ein besseres Erlebnis bieten. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Ressourcen wie Amazon EC2-Instances werden in Availability Zones innerhalb von [AWS-Regionen](https://aws.amazon.com/about-aws/global-infrastructure/regions_az/), [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/), [AWS Outposts](https://aws.amazon.com/outposts/)oder [AWS Wavelength](https://aws.amazon.com/wavelength/) -Zonen platziert. Die Auswahl dieses Standorts beeinflusst die Latenz des Netzwerks und den Durchsatz vom Standort des Benutzers aus. Edge-Services wie [Amazon CloudFront](https://aws.amazon.com/cloudfront/) und [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) können ebenfalls zur Verbesserung der Netzwerkleistung eingesetzt werden, indem sie entweder Inhalte an Edge-Standorten zwischenspeichern oder den Benutzern einen optimalen Pfad zum Workload durch das globale Netzwerk von AWS bereitstellen. 

 Amazon EC2 verfügt über Platzierungsgruppen für das Netzwerk. Eine Platzierungsgruppe ist eine logische Gruppierung von Instances, um die Latenz zu verringern. Die Verwendung von Platzierungsgruppen mit unterstützten Instance-Typen und einem Elastic Network Adapter (ENA) ermöglicht die Verarbeitung von Workloads in einem Netzwerk mit 25 Gbit/s, reduziertem Jitter und geringer Latenz. Platzierungsgruppen werden für Workloads empfohlen, für die eine niedrige Netzwerklatenz bzw. ein hoher Durchsatz von Vorteil sind. 

 Latenzempfindliche Dienste werden an Edge-Standorten über ein globales AWS-Netzwerk bereitgestellt, z. B. [Amazon CloudFront](https://aws.amazon.com/cloudfront/). Diese Edge-Standorte verfügen in der Regel über Services wie ein Content Delivery Network (CDN) und Domain Name System (DNS). Durch die Platzierung am Edge können die Workloads mit geringer Latenz auf Anforderungen zu Inhalten oder zur DNS-Auflösung reagieren. Es sind auch geografische Services wie das Geo-Targeting von Inhalten (Bereitstellung unterschiedlicher Inhalte gemäß dem Standort von Endbenutzern) oder die latenzbasierte Weiterleitung von Endbenutzern zur nächsten Region (minimale Latenz) verfügbar. 

 Verwenden Sie Edge-Services, um die Latenz zu reduzieren und das Caching von Inhalten zu ermöglichen. Konfigurieren Sie die Cache-Steuerung für DNS und HTTP/HTTPS richtig, um aus diesen Ansätzen den größtmöglichen Nutzen zu ziehen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Erfassen Sie Informationen über den an den Netzwerkschnittstellen ein- und ausgehenden IP-Datenverkehr. 
  + [ Protokollierung von IP-Datenverkehr mithilfe von VPC Flow Logs ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)
  + [ Wie Sie die Client-IP-Adresse in AWS Global Accelerator beibehalten ](https://docs.aws.amazon.com/global-accelerator/latest/dg/preserve-client-ip-address.headers.html)
+  Analysieren Sie die Netzwerkzugriffsmuster in Ihrem Workload, um zu ermitteln, wie die Benutzer Ihre Anwendung verwenden. 
  +  Verwenden Sie Überwachungstools wie [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) und [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), um Daten über die Netzwerkaktivitäten zu sammeln. 
  +  Analysen Sie die Daten, um das Netzwerkzugriffsmuster zu identifizieren. 
+  Wählen Sie Regionen für Ihre Workload-Bereitstellung auf der Grundlage der folgenden zentralen Elemente aus: 
  +  **Standort Ihrer Daten:** Für datenintensive Anwendungen (wie etwa Big Data oder Machine Learning) sollte der Anwendungscode so nahe wie möglich zu den Daten ausgeführt werden. 
  +  **Dem Standort Ihrer Benutzer:**Wählen Sie für benutzerseitige Anwendungen eine Region (oder Regionen) in der Nähe der Benutzer des Workloads. 
  +  **Weitere Einschränkungen:**Berücksichtigen Sie auch Einschränkungen wie die Kosten und Compliance, wie unter [„Relevante Aspekte bei der Wahl einer Region für Ihre Workloads“ erläutert.](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/)
+  Verwenden Sie [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) um Workloads wie Video-Rendering auszuführen. Mit Local Zones können Sie von allen Vorteilen profitieren, die sich durch die Platzierung der Datenverarbeitungs- und Speicherressourcen in der Nähe Ihrer Endbenutzer ergeben. 
+  Verwenden Sie [AWS Outposts](https://aws.amazon.com/outposts/) für Workloads, die On-Premises verarbeitet werden müssen und die Sie nahtlos mit Ihren restlichen Workloads in AWS ausführen möchten. 
+  Anwendungen wie hochauflösendes Live-Video-Streaming, High-Fidelity-Audio und Augmented Reality oder Virtual Reality (AR/VR) erfordern extrem niedrige Latenzen für 5G-Geräte. Ziehen Sie für solche Anwendungen [AWS Wavelength](https://aws.amazon.com/wavelength/)in Betracht. AWS Wavelength integriert AWS-Services in den Bereichen Datenverarbeitung und Speicher in 5G-Netzwerke und stellt damit eine mobile Computing-Infrastruktur am Edge bereit, um Anwendungen mit ultra-niedrigen Latenzzeiten zu entwickeln, bereitzustellen und zu skalieren. 
+  Verwenden Sie lokale Zwischenspeicherung oder [AWS-Caching-Lösungen](https://aws.amazon.com/caching/aws-caching/) für häufig genutzte Assets zur Verbesserung der Leistung, zur Verringerung der Datenbewegung und zur Reduzierung der Umweltauswirkungen.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_networking_choose_workload_location_network_requirements.html)
+  Nutzen Sie Services, die Ihnen dabei helfen können, Code näher an den Nutzern Ihres Workloads auszuführen:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_networking_choose_workload_location_network_requirements.html)
+  Einige Anwendungen benötigen feste Zugangspunkte oder eine höhere Leistung. Bei diesen müssen First-Byte-Latenz der Jitter verringert und der Durchsatz erhöht werden. Diese Anwendungen können von Netzwerk-Services profitieren, die statische Anycast-IP-Adressen und eine TCP-Terminierung an Edge-Standorten bieten. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) kann die Leistung Ihrer Anwendungen um bis zu 60 % verbessern und bietet ein schnelles Failover für Architekturen mit mehreren Regionen. AWS Global Accelerator stellt Ihnen statische Anycast-IP-Adressen zur Verfügung, die als fester Zugangspunkt für Ihre Anwendungen dienen, die in einer oder mehreren AWS-Regionen gehostet werden. Diese IP-Adressen sorgen dafür, dass Datenverkehr so nah wie möglich an Ihren Benutzern in das globale AWS-Netzwerk eingebunden wird. AWS Global Accelerator reduziert die Zeit für den anfänglichen Verbindungsaufbau, indem eine TCP-Verbindung zwischen dem Client und dem AWS-Edge-Standort hergestellt wird, der dem Client am nächsten liegt. Prüfen Sie die Verwendung von AWS Global Accelerator, um die Leistung Ihrer TCP/UDP-Workloads zu verbessern und einen schnellen Failover für Architekturen mit mehreren Regionen zu ermöglichen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+ [ COST07-BP02 Implementieren von Regionen auf Basis der Kosten ](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_pricing_model_region_cost.html)
+ [ COST08-BP03 Implementieren von Services zur Senkung der Datenübertragungskosten ](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_data_transfer_implement_services.html)
+ [ REL10-BP01 Bereitstellen des Workloads an mehreren Standorten ](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_multiaz_region_system.html)
+ [ REL10-BP02 Auswählen der geeigneten Standorte für Ihre Multi-Standort-Bereitstellung ](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_select_location.html)
+ [ SUS01-BP01 Auswählen der Region auf Grundlage von Unternehmensanforderungen und Nachhaltigkeitszielen ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_region_a2.html)
+ [ SUS02-BP04 Optimieren der geografischen Platzierung von Workloads auf der Grundlage ihrer Netzwerkanforderungen ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_user_a5.html)
+ [ SUS04-BP07 Minimieren von Datenübertragungen zwischen Netzwerken ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_data_a8.html)

 **Zugehörige Dokumente:** 
+ [ Globale AWS-Infrastruktur ](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones and AWS Outposts, choosing the right technology for your edge workload (AWS Local Zones und AWS Outposts: Die Auswahl der richtigen Technologie für Ihren Edge-Workload) ](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [ Platzierungsgruppen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [AWS Local Zones ](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)
+ [AWS Wavelength](https://aws.amazon.com/wavelength/)
+ [ Amazon CloudFront ](https://aws.amazon.com/cloudfront/)
+ [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/)
+ [AWS Direct Connect](https://aws.amazon.com/directconnect/)
+ [AWS Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/)
+ [ Amazon Route 53 ](https://aws.amazon.com/route53/)

 **Zugehörige Videos:** 
+ [AWS Local Zones Explainer Video (Erklärungsvideo zu AWS Local Zones) ](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Overview and How It Works (AWS Outposts: Übersicht und Funktionsweise) ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2021 - AWS Outposts: Bringing the AWS experience on premises (AWS re:Invent 2021 – AWS Outposts: Das AWS Erlebnis on-premises) ](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 – AWS Wavelength: Run apps with ultra-low latency at 5G edge (AWS re:Invent 2020 – AWS Wavelenght: Apps mit ultraniedriger Latenz am 5G-Edge ausführen) ](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 – AWS Local Zones: Building applications for a distributed edge (AWS re:Invent 2022 – AWS Local Zones: Entwickeln von Anwendungen für einen verteilten Edge) ](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 - Building low-latency websites with Amazon CloudFront (AWS re:Invent 2021 – Entwicklung von Websites mit niedriger Latenz mit Amazon CloudFront) ](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 – Improve performance and availability with AWS Global Accelerator (AWS re:Invent 2022 – Verbessern der Leistung und Verfügbarkeit mit AWS Global Accelerator) ](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 – Build your global wide area network using AWS (AWS re:Invent 2022 – Aufbau Ihres globalen Wide Area Networks mit AWS) ](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020 – Global traffic management with Amazon Route 53 (AWS re:Invent 2020 – Globales Datenverkehrsmanagement mit AWS) ](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Zugehörige Beispiele:** 
+ [AWS Global Accelerator-Workshop ](https://catalog.us-east-1.prod.workshops.aws/workshops/effb1517-b193-4c59-8da5-ce2abdb0b656/en-US)
+ [ Handling Rewrites and Redirects using Edge Functions (Verarbeitung von Rewrites und Redirects mit Edge-Funktionen) ](https://catalog.us-east-1.prod.workshops.aws/workshops/814dcdac-c2ad-4386-98d5-27d37bb77766/en-US)

# PERF04-BP07 Optimieren der Netzwerkkonfiguration basierend auf Metriken
<a name="perf_networking_optimize_network_configuration_based_on_metrics"></a>

 Treffen Sie anhand der erfassten und analysierten Daten fundierte Entscheidungen zum Optimieren Ihrer Netzwerkkonfiguration. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass alle leistungsbezogenen Probleme auf Anwendungen zurückzuführen sind. 
+  Sie testen die Netzwerkleistung ausschließlich an einem Standort nahe der Stelle, an der Sie die Workload bereitgestellt haben. 
+  Sie verwenden Standardkonfigurationen für alle Netzwerk-Services. 
+  Sie führen eine Überdimensionierung der Netzwerkressourcen durch, um eine ausreichende Kapazität zu gewährleisten. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das Sammeln der erforderlichen Metriken Ihres AWS-Netzwerks und die Implementierung von Tools zur Überwachung des Netzwerks bieten Ihnen die Möglichkeit, die Leistung des Netzwerks zu ermitteln und die Netzwerkkonfigurationen zu optimieren. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Überwachung des Datenverkehrs von und zu VPCs, Subnetzen oder Netzwerkschnittstellen ist für das Verständnis der Nutzung von AWS-Netzwerkressourcen und zur Optimierung von Netzwerkkonfigurationen entscheidend. Mit den folgenden AWS-Networking-Tools können Sie Informationen über die Nutzung des Datenverkehrs, den Netzwerkzugriff und die Protokolle genauer untersuchen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Identifizieren Sie die wichtigsten Leistungsmetriken wie Latenz oder Paketverlust, die erfasst werden müssen. AWS bietet mehrere Tools, die Ihnen bei der Erfassung dieser Messwerte helfen können. Mit den folgenden Tools können Sie Informationen über die Nutzung des Datenverkehrs, den Netzwerkzugriff und die Protokolle genauer untersuchen:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_networking_optimize_network_configuration_based_on_metrics.html)
+  Identifizieren Sie mithilfe von VPC und AWS Transit Gateway Flow Logs Top-Talker und Muster des Anwendungsdatenverkehrs. 
+  Beurteilen und optimieren Sie Ihre aktuelle Netzwerkarchitektur, einschließlich VPCs, Subnetze und Routing. Sie können beispielsweise bewerten, wie unterschiedliches VPC-Peering oder AWS Transit Gateway Ihnen helfen können, das Netzwerk in Ihrer Architektur zu verbessern. 
+  Untersuchen Sie die Routingpfade in Ihrem Netzwerk, um sicherzustellen, dass immer der kürzeste Pfad zwischen Zielen verwendet wird. Network Access Analyzer kann Ihnen dabei helfen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Öffentliche DNS-Abfrageprotokollierung](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html) 
+  [Was ist IPAM?](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html) 
+  [Was ist Reachability Analyzer?](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html) 
+  [Was ist Network Access Analyzer?](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html) 
+  [CloudWatch-Metriken für Ihre VPCs](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-cloudwatch.html) 
+  [Optimize performance and reduce costs for network analytics with VPC Flow Logs in Apache Parquet format (Optimieren der Leistung und Reduzieren der Kosten für die Netzwerk-Analytik mit VPC Flow Logs im Apache Parquet-Format) ](https://aws.amazon.com/blogs/big-data/optimize-performance-and-reduce-costs-for-network-analytics-with-vpc-flow-logs-in-apache-parquet-format/) 
+  [Monitoring your global and core networks with Amazon CloudWatch metrics (Überwachen von globalen und Kernnetzwerken mit Amazon CloudWatch-Metriken)](https://docs.aws.amazon.com/vpc/latest/tgwnm/monitoring-cloudwatch-metrics.html) 
+  [Continuously monitor network traffic and resources (Kontinuierliches Überwachen von Netzwerkdatenverkehr und -ressourcen)](https://docs.aws.amazon.com/whitepapers/latest/security-best-practices-for-manufacturing-ot/continuously-monitor-network-traffic-and-resources.html) 

 **Zugehörige Videos:** 
+  [Networking best practices and tips with the AWS Well-Architected Framework (Bewährte Methoden für Netzwerke und Tipps für das AWS Well-Architected Framework) ](https://www.youtube.com/watch?v=wOMNpG49BeM) 
+  [Monitoring and troubleshooting network traffic (Überwachen des Netzwerkdatenverkehrs und Fehlerbehebung) ](https://www.youtube.com/watch?v=Ed09ReWRQXc) 

 **Zugehörige Beispiele:** 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 
+  [Überwachung des AWS-Netzwerks](https://github.com/aws-samples/monitor-vpc-network-patterns) 

# Prozess und Kultur
<a name="a-process-culture"></a>

# LEIST 5. Wie tragen Ihre Unternehmenspraktiken und Ihre Unternehmenskultur zur Leistungseffizienz Ihres Workloads bei?
<a name="perf-05"></a>

 Bei der Architektur von Workloads gibt es Prinzipien und Praktiken, die Sie übernehmen können, um effiziente und leistungsstarke Cloud-Workloads besser zu betreiben. Um eine Kultur zu schaffen, die die Leistungseffizienz von Cloud-Workloads fördert, sollten Sie diese Schlüsselprinzipien und -praktiken berücksichtigen: 

**Topics**
+ [PERF05-BP01 Festlegen wichtiger Leistungskennzahlen (KPIs) zum Messen des Zustands und der Leistung des Workloads](perf_process_culture_establish_key_performance_indicators.md)
+ [PERF05-BP02 Verwenden von Überwachungslösungen, um Bereiche mit kritischem Leistungsbedarf zu identifizieren](perf_process_culture_use_monitoring_solutions.md)
+ [PERF05-BP03 Definieren eines Prozesses zum Verbessern der Workload-Leistung](perf_process_culture_workload_performance.md)
+ [PERF05-BP04 Durchführen von Lasttests für den Workload](perf_process_culture_load_test.md)
+ [PERF05-BP05 Verwenden von Automatisierung zur proaktiven Behebung leistungsbezogener Probleme](perf_process_culture_automation_remediate_issues.md)
+ [PERF05-BP06 Konstantes Aktualisieren des Workloads und der Services](perf_process_culture_keep_workload_and_services_up_to_date.md)
+ [PERF05-BP07 Regelmäßiges Überprüfen von Metriken](perf_process_culture_review_metrics.md)

# PERF05-BP01 Festlegen wichtiger Leistungskennzahlen (KPIs) zum Messen des Zustands und der Leistung des Workloads
<a name="perf_process_culture_establish_key_performance_indicators"></a>

 Identifizieren Sie die KPIs, die die Workload-Leistung quantitativ und qualitativ messen. Mithilfe von KPIs können Sie den Zustand und die Leistung eines Workloads im Zusammenhang mit einem Geschäftsziel messen. 

 **Typische Anti-Muster:** 
+  Sie überwachen nur Metriken auf Systemebene, um Erkenntnisse über Ihren Workload zu gewinnen, und verstehen den geschäftlichen Einfluss dieser Metriken nicht. 
+  Sie gehen davon aus, dass Ihre KPIs bereits als standardmäßige Metrikdaten veröffentlicht und geteilt werden. 
+  Sie definieren keinen quantitativen, messbaren KPI. 
+  Sie richten KPIs nicht an Geschäftszielen oder -strategien aus. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Identifizierung spezifischer KPIs, die den Zustand und die Leistung des Workloads widerspiegeln, hilft Teams dabei, sich auf ihre Prioritäten zu konzentrieren und erfolgreiche Geschäftsergebnisse zu definieren. Das Teilen dieser Metriken mit allen Abteilungen bietet Sichtbarkeit und die Ausrichtung an Grenzwerten, Erwartungen und Geschäftsauswirkungen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 KPIs helfen Business- und Entwicklungsteams, das Messen von Zielen und Strategien abzustimmen und festzustellen, wie diese Faktoren gemeinsam zu Geschäftsergebnissen beitragen. Beispielsweise könnte ein Website-Workload die Ladezeit der Seite als Indikator für die Gesamtleitstung heranziehen. Diese Metrik wäre einer von mehreren Datenpunkten, mit denen das Benutzererlebnis gemessen wird. Zusätzlich zum Ermitteln der Grenzwerte für Seitenladezeiten sollten Sie das gewünschte Resultat dokumentieren bzw. das Geschäftsrisiko, wenn die ideale Leistung nicht erreicht wird. Die lange Ladezeit einer Seite betrifft Ihre Endbenutzer direkt, verringert die Bewertung ihres Benutzererlebnisses und kann zu einem Verlust von Kunden führen. Kombinieren Sie beim Definieren Ihrer KPI-Grenzwerte die Benchmarks der Branche und die Erwartungen Ihrer Endbenutzer. Beispielsweise, wenn die aktuelle Benchmark der Branche das Laden einer Webseite innerhalb von zwei Sekunden ist, Ihre Endbenutzer aber erwarten, dass eine Webseite innerhalb von einer Sekunde geladen wird, sollten Sie beim Einrichten des KPI beide Datenpunkte in Betracht ziehen. 

 Ihr Team muss Ihre Workload-KPIs mithilfe von detaillierten Echtzeitdaten und historischen Daten als Referenz evaluieren und Dashboards erstellen, die Metrikberechnungen für Ihre KPI-Daten durchführen, um Einblicke in Betrieb und Auslastung zu erhalten. KPIs sollten dokumentiert werden und Grenzwerte enthalten, die Geschäftsziele und -strategien unterstützen, und sie sollten den Metriken zugeordnet sein, die überwacht werden. KPIs sollten erneut aufgegriffen werden, wenn sich Geschäftsziele, Strategien oder Anforderungen von Endbenutzern ändern.   

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Identifizieren und dokumentieren Sie wichtige Business-Interessenvertreter. 

1.  Arbeiten Sie mit diesen Interessenvertretern zusammen, um die Ziele Ihres Workloads zu definieren und zu dokumentieren. 

1.  Sehen Sie sich in der Branche bewährte Methoden an, um relevante KPIs zu identifizieren, die auf Ihre Workload-Ziele abgestimmt sind. 

1.  Verwenden Sie in der Branche bewährte Methoden und Ihre Workload-Ziele, um Ziele für Ihren Workload-KPI festzulegen. Verwenden Sie diese Informationen, um KPI-Schwellenwerte für Schweregrad oder Alarmebene festzulegen. 

1.  Identifizieren und dokumentieren Sie das Risiko und die Auswirkungen, wenn die KPIs nicht erreicht werden. 

1.  Identifizieren und dokumentieren Sie Metriken, die Ihnen bei der Festlegung der KPIs helfen können. 

1.  Verwenden Sie Überwachungstools wie [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) oder [AWS Config](https://aws.amazon.com/config/) zur Erfassung von Metriken und Messung von KPIs. 

1.  Verwenden Sie Dashboards, um KPIs zu visualisieren und mit Interessenvertretern zu kommunizieren. 

1.  Überprüfen und analysieren Sie regelmäßig die Metriken, um Bereiche des Workloads zu identifizieren, die verbessert werden müssen. 

1.  Greifen Sie KPIs wieder auf, wenn sich Geschäftsziele oder Workload-Leistung ändern. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [CloudWatch-Dokumentation](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Überwachung, Protokollierung und Leistung von AWS Partners](https://aws.amazon.com/devops/partner-solutions/#_Monitoring.2C_Logging.2C_and_Performance) 
+  [X-Ray-Dokumentation](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Verwenden von Amazon CloudWatch-Dashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html?ref=wellarchitected) 
+  [Quick-KPIs](https://docs.aws.amazon.com/quicksight/latest/user/kpi.html) 

 **Zugehörige Videos:** 
+  [AWS re:Invent 2019: Erweitern Sie den Umfang auf Ihre ersten 10 Millionen Benutzer](https://www.youtube.com/watch?v=kKjm4ehYiMs&ref=wellarchitected) 
+  [Ende des Chaos: Transparenz und Einblick in den Betrieb](https://www.youtube.com/watch?v=nLYGbotqHd0&ref=wellarchitected) 
+  [Erstellen eines Überwachungsplans](https://www.youtube.com/watch?v=OMmiGETJpfU&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [Erstellen eines Dashboards mit Quick](https://github.com/aws-samples/amazon-quicksight-sdk-proserve) 

# PERF05-BP02 Verwenden von Überwachungslösungen, um Bereiche mit kritischem Leistungsbedarf zu identifizieren
<a name="perf_process_culture_use_monitoring_solutions"></a>

 Ermitteln Sie die Bereiche, in denen sich durch Steigern der Workload-Leistung positive Auswirkungen auf die Effizienz oder den Kundenkomfort realisieren lassen. Beispiel: Eine Website mit zahlreichen Kundeninteraktionen kann von der Nutzung von Edge-Services profitieren, indem Inhalte näher bei den Kunden bereitgestellt werden. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass standardmäßige Datenverarbeitungsmetriken wie CPU-Auslastung oder Arbeitsspeicherdruck ausreichen, um Leistungsprobleme zu erfassen. 
+  Sie verwenden nur die Standardmetriken, die von der Überwachungssoftware Ihrer Wahl aufgezeichnet wurden. 
+  Sie überprüfen Metriken nur dann, wenn ein Problem vorliegt. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das eingehende Verständnis kritischer Bereiche hilft Workload-Eigentümern dabei, KPIs zu überwachen und Verbesserungen mit größeren Auswirkungen zu priorisieren. 

 **Risikostufe, wenn diese bewährte Methode nicht genutzt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Richten Sie durchgehende Nachverfolgung ein, um Datenverkehrsmuster, Latenz und kritische Leistungsbereiche zu identifizieren. Überwachen Sie Ihre Datenzugriffsmuster auf langsame Abfragen oder schlecht fragmentierte und partitionierte Daten. Identifizieren Sie problematische Workload-Bereiche mithilfe von Lasttests oder -überwachung. 

 Erhöhen Sie die Leistungseffizienz durch eingehendes Verständnis Ihrer Architektur, der Datenverkehrs- und der Datenzugriffmuster und identifizieren Sie Ihre Latenz- und Verarbeitungszeiten. Identifizieren Sie potenzielle Engpässe, die sich bei zunehmenden Workloads auf den Kundenkomfort auswirken könnten. Nachdem Sie diese Bereiche untersucht haben, sollten Sie prüfen, welche Lösung Sie nutzen können, um diese Leistungsprobleme zu beseitigen. 

### Implementierungsschritte
<a name="implementation-steps"></a>

1.  Richten Sie durchgehende Überwachung ein, um alle Workload-Komponenten und -Metriken zu erfassen. Hier finden Sie Beispiele für Überwachungslösungen in AWS.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-10-03/framework/perf_process_culture_use_monitoring_solutions.html)

1.  Führen Sie Tests durch, um Metriken zu generieren sowie Datenverkehrsmuster, Engpässe und kritische Leistungsbereiche zu identifizieren. Hier finden Sie einige Beispiele zum Durchführen von Tests: 
   +  Richten Sie [CloudWatch Synthetic Canaries](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) zur programmgesteuerten Nachahmung browserbasierter Benutzeraktivitäten mit Linux-Cron-Aufträgen oder Ratenausdrücken und zum Erhalt konsistenter Metriken in Zeitverlauf. 
   +  Nutzen Sie den [AWS Distributed Load Testing](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) , um Spitzendatenverkehr zu generieren oder Workloads mit der erwarteten Wachstumsrate zu testen. 

1.  Evaluieren Sie die Metriken und die Telemetriedaten, um Ihre kritischen Leistungsbereiche zu identifizieren. Prüfen Sie diese Bereiche zusammen mit Ihrem Team und besprechen Sie Überwachung und Lösung zur Vermeidung von Engpässen. 

1.  Experimentieren Sie mit Leistungsverbesserungen und messen Sie diese Änderungen anhand von Daten. Beispielsweise können Sie [CloudWatch Evidently](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Evidently.html) verwenden, um neue Verbesserungen und Leistungsauswirkungen auf Ihren Workload zu testen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon Builders’ Library](https://aws.amazon.com/builders-library) 
+  [X-Ray-Dokumentation](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon DevOps Guru](https://aws.amazon.com/devops-guru/) 

 **Zugehörige Videos:** 
+  [Die Amazon Builders' Library: 25 Jahre operative Exzellenz von Amazon](https://www.youtube.com/watch?v=DSRhgBd_gtw) 
+  [Visuelle Überwachung von Anwendungen mit Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=_PCs-ucZz7E) 

 **Zugehörige Beispiele:** 
+  [Messen der Seitenladezeit mit Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Amazon CloudWatch RUM Web Client](https://github.com/aws-observability/aws-rum-web) 
+  [X-Ray SDK for Node.js](https://github.com/aws/aws-xray-sdk-node) 
+  [X-Ray SDK for Python](https://github.com/aws/aws-xray-sdk-python) 
+  [X-Ray SDK for Java](https://github.com/aws/aws-xray-sdk-java) 
+  [X-Ray SDK for .Net](https://github.com/aws/aws-xray-sdk-dotnet) 
+  [X-Ray SDK for Ruby](https://github.com/aws/aws-xray-sdk-ruby) 
+  [X-Ray Daemon](https://github.com/aws/aws-xray-daemon) 
+  [Verteilte Lasttests auf AWS](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 

# PERF05-BP03 Definieren eines Prozesses zum Verbessern der Workload-Leistung
<a name="perf_process_culture_workload_performance"></a>

 Definieren Sie einen Prozess, mit dem sich neu verfügbare Services, Designmuster, Ressourcentypen und Konfigurationen bewerten lassen. Führen Sie beispielsweise vorhandene Leistungstests für neue Instance-Angebote durch, um zu ermitteln, welche Verbesserungen sich für Ihre Workload ergeben. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass Ihre aktuelle Architektur statisch ist und im Laufe der Zeit nicht aktualisiert wird. 
+  Sie führen im Laufe der Zeit Änderungen an der Architektur ein, ohne sie begründen. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch einen definierten Prozess zum Ändern der Architektur erhalten Sie die Möglichkeit, die gesammelten Daten langfristig in die Gestaltung Ihrer Workload einfließen zu lassen. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Für Ihren Workload gibt es einige wesentliche Einschränkungen. Dokumentieren Sie diese, damit Sie besser einschätzen können, durch welche Art von Innovation die Leistung Ihres Workloads gesteigert werden könnte. Ziehen Sie diese Informationen heran, wenn Sie von neuen verfügbaren Services oder Technologien erfahren, um Möglichkeiten zur Beseitigung von Einschränkungen oder Engpässen zu identifizieren. 

 Identifizieren Sie wesentliche Leistungseinschränkungen für Ihren Workload. Dokumentieren Sie die Leistungseinschränkungen Ihrer Workload, damit Sie besser einschätzen können, durch welche Art von Innovation die Leistung Ihrer Workload ggf. gesteigert werden kann. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Identifizieren Sie Ihre Workload-Leistungs-KPIs wie beschrieben unter [PERF05-BP01 Festlegen wichtiger Leistungskennzahlen (KPIs) zum Messen des Zustands und der Leistung des Workloads](perf_process_culture_establish_key_performance_indicators.md) zur Ermittlung Ihrer Workload-Baseline. 
+  Mit [AWS-Tools zur Beobachtbarkeit](https://docs.aws.amazon.com/wellarchitected/latest/management-and-governance-guide/aws-observability-tools.html) können Sie Leistungsmetriken erfassen und KPIs messen. 
+  Führen Sie eine eingehende Analyse durch, um die Bereiche (wie Konfiguration und Anwendungscode) in Ihrem Workload zu identifizieren, die leistungsschwach sind, wie beschrieben unter [PERF05-BP02 Verwenden von Überwachungslösungen, um Bereiche mit kritischem Leistungsbedarf zu identifizieren](perf_process_culture_use_monitoring_solutions.md). 
+  Verwenden Sie Analyse- und Leistungs-Tools, um die Strategie zur Leistungsoptimierung zu identifizieren. 
+  Verwenden Sie Sandbox- oder Vorproduktionsumgebungen, um die Effektivität der Strategie zu überprüfen. 
+  Implementieren Sie die Änderungen in der Produktion und überwachen Sie kontinuierlich die Leistung des Workloads. 
+  Dokumentieren Sie die Verbesserungen und teilen Sie sie den Interessenvertretern mit. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Blog](https://aws.amazon.com/blogs/) 
+  [Neuerungen bei AWS](https://aws.amazon.com/new/?ref=wellarchitected) 

 **Zugehörige Videos:** 
+  [YouTube-Kanal: AWS Events](https://www.youtube.com/channel/UCdoadna9HFHsxXWhafhNvKw) 
+  [YouTube-Kanal: AWS Online Tech Talks](https://www.youtube.com/user/AWSwebinars) 
+  [YouTube-Kanal: Amazon Web Services](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 

 **Zugehörige Beispiele:** 
+  [AWS Github](https://github.com/aws) 
+  [AWS Skill Builder](https://explore.skillbuilder.aws/learn) 

# PERF05-BP04 Durchführen von Lasttests für den Workload
<a name="perf_process_culture_load_test"></a>

 Führen Sie für den Workload Lasttests durch, um sicherzustellen, dass er die Produktionslast bewältigen kann, und identifizieren Sie Leistungsengpässe. 

 **Typische Anti-Muster:** 
+  Sie führen Lasttests für einzelne Teile der Workload durch, aber nicht für die gesamte Workload. 
+  Sie führen Lasttests in einer Infrastruktur durch, die sich von Ihrer Produktionsumgebung unterscheidet. 
+  Sie führen Lasttests nur für die erwartete Last durch und nicht für noch größere Lasten, um mögliche künftige Probleme besser vorherzusehen. 
+  Sie führen Belastungstests durch, ohne sich auf die [Amazon EC2-Testrichtlinie](https://aws.amazon.com/ec2/testing/) zu beziehen und ein Formular Event Submissions Form einzureichen. Dies führt dazu, dass Ihr Test nicht ausgeführt werden kann, da er wie ein Denial-of-Service-Ereignis aussieht. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Messung der Leistung im Rahmen eines Lasttests gibt Aufschluss darüber, wo bei zunehmender Last mit Auswirkungen zu rechnen ist. Auf diese Weise können Sie erforderliche Änderungen vorhersehen, bevor sie sich auf Ihre Workload auswirken. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Lasttests in der Cloud sind ein Prozess zur Messung der Leistung eines Cloud-Workloads unter realistischen Bedingungen mit erwarteter Benutzerlast. Dieser Prozess beinhaltet die Bereitstellung einer produktionsähnlichen Cloud-Umgebung, die Verwendung von Lasttest-Tools zur Lastgenerierung und die Analyse von Metriken, um die Fähigkeit Ihres Workloads zu bewerten, mit einer realistischen Last umzugehen. Verwenden Sie für Lasttests synthetische oder bereinigte Daten und entfernen Sie sensible oder personenbezogene Informationen. Führen Sie automatisch Lasttests als Teil Ihrer Bereitstellungs-Pipeline durch und vergleichen Sie die Ergebnisse mit vordefinierten KPIs und Schwellenwerten. Dieser Prozess hilft Ihnen dabei, die erforderliche Leistung weiterhin zu erreichen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Richten Sie die Testumgebung auf der Grundlage Ihrer Produktionsumgebung ein. Mithilfe von AWS-Services können Sie Umgebungen im Produktionsmaßstab ausführen und damit Ihre Architektur testen. 
+  Wählen und konfigurieren Sie das Lasttest-Tool, das zu Ihrem Workload passt. 
+  Definieren Sie die Szenarien und Parameter der Lasttests (wie Testdauer und Anzahl der Benutzer). 
+  Führen Sie Testszenarien in großem Umfang durch. Testen Sie Ihren Workload mithilfe der AWS Cloud, um zu ermitteln, an welcher Stelle er nicht skalierbar ist oder ob die Skalierung nichtlinear erfolgt. Nutzen Sie beispielsweise Spot Instances, um kostengünstig Lasten zu erzeugen und Engpässe zu identifizieren, bevor diese in der Produktionsumgebung auftreten. 
+  Überwachen und zeichnen Sie Leistungsmetriken (wie Durchsatz und Reaktionszeit) auf. Amazon CloudWatch kann Kennzahlen aus sämtlichen Ressourcen Ihrer Architektur erfassen. Sie können auch benutzerdefinierte Kennzahlen erfassen und in Oberflächen-, Geschäfts- oder abgeleiteten Kennzahlen veröffentlichen. 
+  Analysieren Sie die Ergebnisse, um Leistungsengpässe und verbesserungswürdige Bereiche zu identifizieren. 
+  Dokumentieren Sie den Prozess und die Ergebnisse der Lasttests und berichten Sie darüber. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon CloudWatch Synthetics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) 
+  [Verteilte Lasttests auf AWS](https://docs.aws.amazon.com/solutions/latest/distributed-load-testing-on-aws/welcome.html) 

 **Zugehörige Videos:** 
+  [Lösen mit AWS-Solutions: Verteilte Lasttests](https://www.youtube.com/watch?v=Y-2rk0sSyOM) 
+  [Optimieren von Anwendungen mithilfe von Amazon CloudWatch RUM](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo von Amazon CloudWatch Synthetics](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Zugehörige Beispiele:** 
+  [Verteilte Lasttests auf AWS](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 

# PERF05-BP05 Verwenden von Automatisierung zur proaktiven Behebung leistungsbezogener Probleme
<a name="perf_process_culture_automation_remediate_issues"></a>

 Verwenden Sie wichtige Leistungskennzahlen (KPIs) in Kombination mit Überwachungs- und Warnsystemen, um eine proaktive Behandlung leistungsbezogener Probleme zu ermöglichen. 

 **Typische Anti-Muster:** 
+  Sie geben dem Betriebspersonal nur die Möglichkeit, betriebliche Änderungen an der Workload vorzunehmen. 
+  Sie lassen alle Alarme ohne proaktive Behebung zum Betriebsteam filtern. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die proaktive Behebung von Alarmaktionen ermöglicht es dem Support-Personal, sich auf die Elemente zu konzentrieren, die nicht automatisch umsetzbar sind. Dies hilft dem Betriebspersonal, alle Alarme zu bewältigen, ohne überfordert zu werden, und sich stattdessen auf die kritischen Alarme zu konzentrieren. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Verwenden Sie Alarme, um automatisierte Aktionen auszulösen und auf diese Weise Probleme nach Möglichkeit zu beheben. Leiten Sie den Alarm an die Personen weiter, die die richtigen Maßnahmen einleiten können, falls keine automatisierte Reaktion möglich ist. Beispielsweise können Sie ein System nutzen, das erwartete Werte wichtiger Leistungskennzahlen (KPIs) prognostiziert und bei Überschreiten bestimmter Schwellenwerte einen Alarm ausgibt. Denkbar ist auch ein Tool, das Bereitstellungen automatisch anhält oder zurücksetzt, wenn sich KPIs außerhalb der erwarteten Werte befinden. 

 Implementieren Sie Prozesse, die Ihnen Einblick in die Leistung gewähren, während Ihr Workload ausgeführt wird. Entwickeln Sie Dashboards für die Überwachung und legen Sie Leistungsnormen in Form von Grundwerten fest, um zu bestimmen, ob die Workload optimal funktioniert. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Identifizieren und verstehen Sie das Leistungsproblem, das automatisch behoben werden kann. Verwenden Sie Überwachungslösungen von AWS wie [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) oder AWS X-Ray, damit Sie die Ursache des Problems besser verstehen. 
+  Erstellen Sie einen schrittweisen Plan zur Behebung des Problems und einen Prozess, mit dem das Problem automatisch behoben werden kann. 
+  Konfigurieren Sie den Auslöser so, dass der Prozess zur Mängelbeseitigung automatisch eingeleitet wird. Sie können beispielsweise einen Auslöser definieren, der eine Instance automatisch neu startet, wenn sie einen bestimmten Schwellenwert für die CPU-Auslastung erreicht. 
+  Nutzen Sie AWS-Services und -Technologien, um den Prozess zur Mängelbeseitigung zu automatisieren. Zum Beispiel, [AWS Systems Manager Automation](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html) bietet eine sichere und skalierbare Möglichkeit, den Prozess zur Mängelbeseitigung zu automatisieren. 
+  Testen Sie den automatisierten Prozess zur Mängelbeseitigung in einer Vorproduktionsumgebung. 
+  Implementieren Sie nach dem Testen den Prozess zur Mängelbeseitigung in der Produktionsumgebung und überwachen Sie ihn kontinuierlich, um verbesserungswürdige Bereiche zu identifizieren. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [CloudWatch-Dokumentation](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Überwachung, Protokollierung und Leistung von AWS Partner Network-Partnern](https://aws.amazon.com/devops/partner-solutions/#_Monitoring.2C_Logging.2C_and_Performance) 
+  [X-Ray-Dokumentation](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Verwendung von Alarmen und Alarmaktionen in CloudWatch](https://docs.aws.amazon.com/sdk-for-go/v1/developer-guide/cw-example-using-alarm-actions.html) 

 **Zugehörige Videos:** 
+  [Intelligente Automatisierung des Cloud-Betriebs](https://www.youtube.com/watch?v=m0S8eAF0l54) 
+  [Einrichtung skalierbarer Kontrollen in Ihrer AWS-Umgebung](https://www.youtube.com/watch?v=NkE9_okfPG8) 
+  [Automatisierung der Patch-Verwaltung und -Compliance mit AWS](https://www.youtube.com/watch?v=gL3baXQJvc0) 
+  [Wie Amazon bessere Metriken für eine verbesserte Website-Leistung verwendet](https://www.youtube.com/watch?v=_uaaCiyJCFA&ab_channel=AWSEvents) 

 **Zugehörige Beispiele:** 
+  [CloudWatch Logs Konfigurieren von Alarmen](https://github.com/awslabs/cloudwatch-logs-customize-alarms) 

# PERF05-BP06 Konstantes Aktualisieren des Workloads und der Services
<a name="perf_process_culture_keep_workload_and_services_up_to_date"></a>

 Erhalten Sie aktuelle Informationen zu neuen Cloud-Services und -Funktionen, um effiziente Funktionen zu übernehmen, Probleme zu beseitigen und die allgemeine Leistungseffizienz des Workloads zu verbessern. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass Ihre aktuelle Architektur statisch ist und im Laufe der Zeit nicht aktualisiert wird. 
+  Sie haben keine Systeme oder regelmäßigen Besprechungen zur Prüfung, ob aktualisierte Software und Pakete mit Ihrem Workload kompatibel sind. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie einen Prozess einrichten, um aktuelle Informationen zu neuen Services und Angeboten zu erhalten, können Sie neue Funktionen und Kapazitäten nutzen, Probleme lösen und die Workload-Leistung verbessern. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Evaluieren Sie Möglichkeiten zur Verbesserung der Leistung, wenn neue Services, Entwurfsmuster und Produktfunktionen verfügbar sind. Ermitteln Sie anhand von Bewertungen, internen Diskussionen oder externen Analysen, wie sich diese neuen Optionen positiv auf die Leistung oder Effizienz der Workload auswirken können. Definieren Sie einen Prozess zum Bewerten von Updates, neuen Funktionen und Services, die für Ihren Workload relevant sind. Erstellen Sie beispielsweise Machbarkeitsstudien, die auf neuen Technologien aufbauen, oder beraten Sie sich mit einer internen Gruppe. Führen Sie beim Ausprobieren neuer Ideen oder Services Leistungstests durch, um die Auswirkungen auf die Leistung des Workloads zu messen. 

## Implementierungsschritte
<a name="implementation-steps"></a>
+  Inventarisierung Ihrer Workload-Software und -Architektur und Identifizieren von Komponenten, die aktualisiert werden müssen. 
+  Identifizieren Sie Quellen für Neuigkeiten und Updates im Zusammenhang mit Ihren Workload-Komponenten. Beispielsweise können Sie den Blog [Neuigkeiten bei AWS](https://aws.amazon.com/new/) für die Produkte abonnieren, die Ihrer Workload-Komponente entsprechen. Sie können den RSS-Feed abonnieren oder Ihre [E-Mail-Abonnements verwalten](https://pages.awscloud.com/communication-preferences.html). 
+  Definieren Sie einen Zeitplan zur Evaluierung neuer Services und Funktionen für Ihren Workload. 
  +  Nutzen Sie Instrumentierungsservices wie [AWS Systems Manager Inventory](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-inventory.html) verwenden, um Betriebssystem (BS)-, Anwendungs- und Instance-Metadaten von Ihren Amazon EC2-Instances zu erfassen und so schnell zu verstehen, welche Instances die Software und die Konfigurationen ausführen, die Ihre Softwarerichtlinie erfordert, und welche Instances aktualisiert werden müssen. 
+  Verständnis der Aktualisierung der Komponenten Ihres Workloads. Nutzen Sie die Agilität in der Cloud, um schnell zu testen, wie neue Funktionen Ihren Workload verbessern und so die Leistungseffizienz steigern können. 
+  Verwenden Sie Automatisierung für den Aktualisierungsvorgang, um den Aufwand für die Bereitstellung neuer Funktionen zu reduzieren und Fehler zu begrenzen, die durch manuelle Prozesse verursacht werden. 
  +  Nutzen Sie Instrumentierungsservices wie [CI/CD](https://aws.amazon.com/blogs/devops/complete-ci-cd-with-aws-codecommit-aws-codebuild-aws-codedeploy-and-aws-codepipeline/) um AMIs, Container-Images und andere Artefakte im Zusammenhang mit Ihrer Cloud-Anwendung automatisch zu aktualisieren. 
  +  Verwenden Sie Tools wie [AWS Systems Manager Patch Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-patch.html) zur Automatisierung des Systemaktualisierungsprozesses und zur Planung der Aktivität mithilfe von [AWS Systems Manager Maintenance Windows](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-maintenance.html). 
+  Dokumentieren Sie Ihren Prozess zur Evakuierung von Aktualisierungen und neuen Services. Geben Sie Ihren Eigentümern ausreichend Zeit und Raum zum Forschen, Testen, Experimentieren und zur Validierung von Aktualisierungen und neuen Services. Nutzen Sie die dokumentierten geschäftlichen Anforderungen und KPIs, um zu ermitteln, welche Aktualisierungen positive geschäftliche Auswirkungen haben werden. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Blog](https://aws.amazon.com/blogs/) 
+  [Neuerungen bei AWS](https://aws.amazon.com/new/?ref=wellarchitected) 

 **Zugehörige Videos:** 
+  [YouTube-Kanal: AWS Events](https://www.youtube.com/channel/UCdoadna9HFHsxXWhafhNvKw) 
+  [YouTube-Kanal: AWS Online Tech Talks](https://www.youtube.com/user/AWSwebinars) 
+  [YouTube-Kanal: Amazon Web Services](https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg) 

 **Zugehörige Beispiele:** 
+  [Well-Architected Labs: Bestands- und Patch-Verwaltung](https://wellarchitectedlabs.com/operational-excellence/100_labs/100_inventory_patch_management/) 
+  [Lab: AWS Systems Manager](https://mng.workshop.aws/ssm.html) 

# PERF05-BP07 Regelmäßiges Überprüfen von Metriken
<a name="perf_process_culture_review_metrics"></a>

 Überprüfen Sie im Rahmen der routinemäßigen Wartungsmaßnahme oder als Reaktion auf Ereignisse oder Vorfälle, welche Metriken erfasst werden. Ermitteln Sie anhand dieser Überprüfung, welche Metriken für die Behebung von Problemen wesentlich waren und welche zusätzlichen Kennzahlen, sofern nachverfolgt, helfen könnten, Probleme zu identifizieren, zu beheben oder zu verhindern. 

 **Typische Anti-Muster:** 
+  Sie lassen zu, dass Metriken für einen längeren Zeitraum im Alarmstatus bleiben. 
+  Sie erstellen Alarme, die von einem Automatisierungssystem nicht umsetzbar sind. 

 **Vorteile der Nutzung dieser bewährten Methode:** Überprüfen Sie kontinuierlich Metriken, die erfasst werden, um zu bestätigen, dass sie Probleme ordnungsgemäß identifizieren, beheben oder verhindern. Metriken können auch veralten, wenn sie für einen längeren Zeitraum im Alarmstatus bleiben. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Verbessern Sie kontinuierlich die Erfassung und Überwachung von Metriken. Bewerten Sie beim Reagieren auf Vorfälle oder Ereignisse diejenigen Kennzahlen, die hilfreich für die Behebung des Problems waren, und überlegen Sie, welche derzeit noch nicht verfolgten Kennzahlen förderlich sein könnten. Verbessern Sie auf diese Weise die Qualität der erfassten Metriken, damit Sie zukünftige Probleme verhindern oder schneller beheben können. 

 Bewerten Sie beim Reagieren auf Vorfälle oder Ereignisse diejenigen Kennzahlen, die hilfreich für die Behebung des Problems waren, und überlegen Sie, welche derzeit noch nicht verfolgten Kennzahlen förderlich sein könnten. Verbessern Sie auf diese Weise die Qualität der erfassten Metriken, damit Sie zukünftige Probleme verhindern oder schneller beheben können. 

### Implementierungsschritte
<a name="implementation-steps"></a>

1. Definieren Sie wichtige Leistungskennzahlen zur Überwachung, die auf Ihr Workload-Ziel abgestimmt sind. 

1. Legen Sie für jede Metrik einen Ausgangswert und einen gewünschten Wert fest. 

1. Legen Sie einen Takt zur Überprüfung wichtiger Kennzahlen fest (z. B. wöchentlich oder monatlich). 

1. Bewerten Sie bei jeder Überprüfung Trends und Abweichungen von den Ausgangswerten. Suchen Sie nach Leistungsengpässen oder Anomalien. 

1. Führen Sie bei identifizierten Problemen eine eingehende Ursachenanalyse durch, um den Hauptgrund für das Problem zu ermitteln. 

1. Dokumentieren Sie Ihre Erkenntnisse und wenden Sie Strategien an, um identifizierte Probleme und Engpässe zu beheben. 

1. Bewerten und verbessern Sie den Prozess zur Überprüfung der Kennzahlen kontinuierlich.

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [CloudWatch-Dokumentation](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Erfassen von Metriken und Protokollen aus Amazon EC2-Instances und On-Premises-Servern mit dem CloudWatch Agent](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Überwachung, Protokollierung und Leistung von AWS Partner Network-Partnern](https://aws.amazon.com/devops/partner-solutions/#_Monitoring.2C_Logging.2C_and_Performance) 
+  [X-Ray-Dokumentation](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 

 **Zugehörige Videos:** 
+  [Einrichtung skalierbarer Kontrollen in Ihrer AWS-Umgebung](https://www.youtube.com/watch?v=NkE9_okfPG8) 
+  [Wie Amazon bessere Metriken für eine verbesserte Website-Leistung verwendet](https://www.youtube.com/watch?v=_uaaCiyJCFA&ab_channel=AWSEvents) 

 **Zugehörige Beispiele:** 
+  [Erstellen eines Dashboards mit Quick](https://github.com/aws-samples/amazon-quicksight-sdk-proserve) 
+  [Stufe 100: Überwachung mit CloudWatch-Dashboards](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 